AI治理规划Skill ai-governance

这个技能提供AI治理和负责任AI规划的全面指导,包括欧盟AI法案的风险分类、NIST AI风险管理框架的实施,以及AI伦理框架的建立。适用于AI系统开发前的合规准备、风险识别和治理结构设置。关键词:AI治理、负责任AI、EU AI Act、NIST AI RMF、AI伦理、合规、风险管理、AI应用、监管框架。

AI应用 0 次安装 0 次浏览 更新于 3/11/2026

名称: ai-governance 描述: AI治理和负责任AI规划,包括欧盟AI法案分类、NIST AI风险框架和AI伦理框架 允许工具: 读取, 全局, 搜索, 写入, 编辑, 任务

AI治理规划

为AI治理、监管合规和负责任AI实践提供的全面指导,在开发开始前使用。

何时使用此技能

  • 构建可能受欧盟AI法案约束的AI/ML系统
  • 实施NIST AI风险管理框架
  • 建立负责任AI实践和治理
  • 进行AI风险分类和影响评估
  • 创建AI文档和透明度报告

欧盟AI法案概述

基于风险的分类

欧盟AI法案按风险级别对AI系统进行分类:

┌─────────────────────────────────────────────────────┐
│ 不可接受风险(禁止)                              │
│ • 政府社会评分                                     │
│ • 潜意识操纵                                       │
│ • 利用漏洞                                         │
│ • 公共场所实时生物识别(例外)                     │
├─────────────────────────────────────────────────────┤
│ 高风险(严格要求)                                  │
│ • 生物识别                                         │
│ • 关键基础设施管理                                 │
│ • 教育/职业培训访问                                │
│ • 就业、员工管理、招聘                             │
│ • 基本服务访问(信贷、保险)                       │
│ • 执法                                             │
│ • 移民、庇护、边境控制                             │
│ • 司法和民主进程                                   │
├─────────────────────────────────────────────────────┤
│ 有限风险(透明度义务)                              │
│ • 聊天机器人(必须披露AI交互)                      │
│ • 情感识别系统                                     │
│ • 生物识别分类                                     │
│ • 深度伪造(必须标注为生成)                        │
├─────────────────────────────────────────────────────┤
│ 最小风险(无特定要求)                              │
│ • AI增强视频游戏                                   │
│ • 垃圾邮件过滤器                                   │
│ • 库存管理                                         │
└─────────────────────────────────────────────────────┘

高风险AI要求

要求 描述 实施
风险管理 持续风险管理系统 风险评估流程
数据治理 训练数据质量和治理 数据文档
技术文档 详细系统文档 系统规格+模型卡
记录保存 事件自动日志 审计追踪
透明度 清晰用户指令 用户文档
人工监督 人工干预能力 人在回路机制
准确性、稳健性、网络安全 适当性能水平 测试+监控

风险分类决策树

public class EuAiActClassifier
{
    public AiRiskCategory Classify(AiSystemDescription system)
    {
        // 首先检查禁止实践
        if (IsProhibited(system))
            return AiRiskCategory.Unacceptable;

        // 检查附件III高风险类别
        if (IsHighRiskCategory(system))
            return AiRiskCategory.High;

        // 检查附件I产品安全立法
        if (RequiresProductConformity(system))
            return AiRiskCategory.High;

        // 检查透明度义务
        if (RequiresTransparency(system))
            return AiRiskCategory.Limited;

        return AiRiskCategory.Minimal;
    }

    private bool IsProhibited(AiSystemDescription system)
    {
        return system.UseCases.Any(uc =>
            uc.Type == UseCaseType.SocialScoring ||
            uc.Type == UseCaseType.SubliminalManipulation ||
            uc.Type == UseCaseType.VulnerabilityExploitation ||
            (uc.Type == UseCaseType.RealTimeBiometricId &&
             uc.Context == Context.PublicSpace &&
             !uc.HasLawEnforcementException));
    }

    private bool IsHighRiskCategory(AiSystemDescription system)
    {
        var highRiskCategories = new[]
        {
            Domain.BiometricIdentification,
            Domain.CriticalInfrastructure,
            Domain.EducationAccess,
            Domain.Employment,
            Domain.EssentialServices,
            Domain.LawEnforcement,
            Domain.MigrationAsylum,
            Domain.JusticeProcesses
        };

        return highRiskCategories.Contains(system.Domain);
    }
}

public enum AiRiskCategory
{
    Unacceptable,
    High,
    Limited,
    Minimal
}

NIST AI风险管理框架

四个功能

┌─────────────────────────────────────────────────────────────┐
│                         治理                                 │
│  文化、政策、问责结构                                       │
│  ↓                                                          │
├─────────────────────────────────────────────────────────────┤
│        映射             测量            管理                 │
│  上下文和风险 →  评估风险 →   优先和                        │
│  识别          和影响        缓解                           │
└─────────────────────────────────────────────────────────────┘

治理功能

建立AI治理结构:

## AI治理结构

### 角色和责任
| 角色 | 责任 |
|------|------------------|
| AI治理委员会 | 战略监督、政策批准 |
| AI伦理官 | 伦理审查、偏见评估 |
| AI风险经理 | 风险识别、缓解跟踪 |
| 模型所有者 | 生命周期管理、性能 |
| 技术负责人 | 实施、测试、监控 |

### 所需政策
- [ ] AI开发政策
- [ ] 模型风险管理政策
- [ ] AI伦理指南
- [ ] 数据质量标准
- [ ] 人工监督要求
- [ ] AI故障事件响应

映射功能

理解上下文和识别风险:

public class AiContextMapping
{
    public record AiSystemContext
    {
        public required string SystemName { get; init; }
        public required string Purpose { get; init; }
        public required List<string> Stakeholders { get; init; }
        public required List<string> ImpactedGroups { get; init; }
        public required string DecisionType { get; init; } // 增强 vs 自动化
        public required bool InvolvesVulnerablePopulations { get; init; }
        public required List<string> PotentialHarms { get; init; }
        public required List<string> PotentialBenefits { get; init; }
        public required List<string> LegalConstraints { get; init; }
    }

    public ContextAssessment Assess(AiSystemContext context)
    {
        var risks = new List<IdentifiedRisk>();

        // 评估利益相关者影响
        foreach (var group in context.ImpactedGroups)
        {
            risks.Add(new IdentifiedRisk
            {
                Category = "利益相关者影响",
                Description = $"对{group}的潜在影响",
                Severity = context.InvolvesVulnerablePopulations
                    ? RiskSeverity.High
                    : RiskSeverity.Medium
            });
        }

        // 评估潜在危害
        foreach (var harm in context.PotentialHarms)
        {
            risks.Add(new IdentifiedRisk
            {
                Category = "潜在危害",
                Description = harm,
                Severity = DetermineHarmSeverity(harm)
            });
        }

        return new ContextAssessment
        {
            Context = context,
            IdentifiedRisks = risks,
            RecommendedMitigations = GenerateMitigations(risks)
        };
    }
}

测量功能

评估和分析AI风险:

## 风险评估框架

### 可信赖特性

| 特性 | 评估问题 |
|----------------|---------------------|
| **有效和可靠** | 系统是否按预期执行?结果是否一致? |
| **安全** | 系统是否可能造成伤害?安全控制是否充分? |
| **安全和弹性** | 系统是否受到攻击保护?能否恢复? |
| **可问责和透明** | 能否解释决策?是否有清晰所有权? |
| **可解释和可理解** | 用户能否理解输出?能否审计决策? |
| **隐私增强** | 个人数据是否受保护?是否应用数据最小化? |
| **公平(偏见管理)** | 结果是否公平?是否检测和缓解偏见? |

### 测量指标

| 指标 | 描述 | 目标 |
|--------|-------------|--------|
| 准确度 | 正确预测/总数 | ≥95% |
| 公平差距 | 组间最大差异 | ≤5% |
| 可解释性 | 有解释的决策 | 100% |
| 事件率 | 每1000次使用中的失败 | <1 |
| 人工覆盖率 | 手动干预 | 跟踪 |

管理功能

优先和实现缓解措施:

public class AiRiskManagement
{
    public record RiskMitigation
    {
        public required string RiskId { get; init; }
        public required string Risk { get; init; }
        public required RiskSeverity Severity { get; init; }
        public required List<string> Controls { get; init; }
        public required string Owner { get; init; }
        public required DateTimeOffset DueDate { get; init; }
        public required MitigationStatus Status { get; init; }
    }

    public RiskTreatmentPlan CreateTreatmentPlan(
        IEnumerable<IdentifiedRisk> risks)
    {
        var prioritized = risks
            .OrderByDescending(r => r.Severity)
            .ThenByDescending(r => r.Likelihood);

        var plan = new RiskTreatmentPlan();

        foreach (var risk in prioritized)
        {
            var treatment = DetermineTreatment(risk);

            switch (treatment)
            {
                case TreatmentType.Avoid:
                    plan.Avoidances.Add(CreateAvoidanceAction(risk));
                    break;
                case TreatmentType.Mitigate:
                    plan.Mitigations.Add(CreateMitigationPlan(risk));
                    break;
                case TreatmentType.Transfer:
                    plan.Transfers.Add(CreateTransferPlan(risk));
                    break;
                case TreatmentType.Accept:
                    plan.Acceptances.Add(CreateAcceptanceRecord(risk));
                    break;
            }
        }

        return plan;
    }
}

负责任AI原则

核心原则

原则 描述 实施
公平性 公平待遇、非歧视 偏见测试、公平指标
透明度 清晰AI使用和限制 披露、解释
可问责性 清晰所有权和责任 治理、审计追踪
隐私 保护个人数据 数据最小化、同意
安全性 防止伤害 测试、防护栏、监控
人工控制 有意义的人工监督 人在回路、覆盖能力

模型文档(模型卡)

# 模型卡:[模型名称]

## 模型详情
- **开发者**:[组织]
- **版本**:[X.Y.Z]
- **类型**:[分类/回归/生成等]
- **框架**:[PyTorch/TensorFlow等]
- **许可证**:[许可证]

## 预期用途
- **主要用例**:[列表]
- **用户**:[目标用户]
- **超出范围用途**:[禁止或不受支持用途]

## 训练数据
- **数据集**:[名称和来源]
- **大小**:[示例数量]
- **特征**:[关键特征]
- **预处理**:[应用步骤]
- **已知限制**:[数据差距或偏见]

## 评估
- **指标**:[准确度、F1等]
- **测试数据**:[保留集描述]
- **结果**:[性能数字]
- **公平性评估**:[分解指标]

## 伦理考虑
- **敏感用例**:[如果适用]
- **潜在滥用**:[风险]
- **缓解措施**:[控制措施]

## 限制和建议
- **已知限制**:[模型弱点]
- **建议**:[用户最佳实践]

算法影响评估

## 算法影响评估

### 1. 系统描述
- **名称**:[系统名称]
- **目的**:[业务目标]
- **决策类型**:[它通知/做出的决策]
- **受影响方**:[谁受影响]

### 2. 数据评估
- **数据来源**:[数据来源]
- **个人数据**:[收集类型]
- **敏感属性**:[受保护特征]
- **历史偏见风险**:[评估]

### 3. 影响评估

#### 积极影响
| 影响 | 受益者 | 程度 |
|--------|-------------|-----------|
| [影响] | [组] | [高/中/低] |

#### 消极影响
| 影响 | 受影响组 | 程度 | 缓解 |
|--------|----------------|-----------|------------|
| [影响] | [组] | [高/中/低] | [行动] |

### 4. 公平性评估
- **分析受保护组**:[列表]
- **使用公平指标**:[人口统计学平等等]
- **发现的差异**:[结果]
- **补救计划**:[行动]

### 5. 人工监督
- **监督级别**:[全自动 / 人在回路 / 人在回路上]
- **覆盖机制**:[人类如何干预]
- **升级路径**:[何时升级]

### 6. 监控计划
- **性能指标**:[跟踪什么]
- **公平性指标**:[持续监控]
- **审查频率**:[节奏]
- **触发阈值**:[何时调查]

### 7. 批准
| 角色 | 姓名 | 批准 | 日期 |
|------|------|----------|------|
| 模型所有者 | | [ ] | |
| AI伦理 | | [ ] | |
| 法律 | | [ ] | |
| 业务 | | [ ] | |

AI治理检查清单

开发前

  • [ ] 分类AI系统风险级别(欧盟AI法案)
  • [ ] 进行算法影响评估
  • [ ] 识别监管要求
  • [ ] 建立治理结构
  • [ ] 定义成功指标(包括公平性)
  • [ ] 文档化预期用途和限制

开发中

  • [ ] 在整个开发过程中实施偏见测试
  • [ ] 创建模型文档(模型卡)
  • [ ] 构建可解释性功能
  • [ ] 实施人工监督机制
  • [ ] 创建审计日志
  • [ ] 与多样利益相关者测试

部署

  • [ ] 最终公平性评估
  • [ ] 就位透明度披露
  • [ ] 测试人工覆盖机制
  • [ ] 配置监控仪表板
  • [ ] 就位事件响应计划
  • [ ] 完成用户文档

运营

  • [ ] 定期偏见监控
  • [ ] 性能漂移检测
  • [ ] 定期公平性审计
  • [ ] 模型再训练治理
  • [ ] 事件跟踪和响应
  • [ ] 收集利益相关者反馈

交叉参考

  • 偏见评估:通过MCP研究(困惑度:“AI偏见评估框架 NIST”)
  • 可解释性:通过MCP研究(困惑度:“AI可解释性 XAI 技术”)
  • 数据隐私gdpr-compliance 用于数据保护
  • 伦理ethics-review 用于伦理评估

资源