名称: ai-governance 描述: AI治理和负责任AI规划,包括欧盟AI法案分类、NIST AI风险框架和AI伦理框架 允许工具: 读取, 全局, 搜索, 写入, 编辑, 任务
AI治理规划
为AI治理、监管合规和负责任AI实践提供的全面指导,在开发开始前使用。
何时使用此技能
- 构建可能受欧盟AI法案约束的AI/ML系统
- 实施NIST AI风险管理框架
- 建立负责任AI实践和治理
- 进行AI风险分类和影响评估
- 创建AI文档和透明度报告
欧盟AI法案概述
基于风险的分类
欧盟AI法案按风险级别对AI系统进行分类:
┌─────────────────────────────────────────────────────┐
│ 不可接受风险(禁止) │
│ • 政府社会评分 │
│ • 潜意识操纵 │
│ • 利用漏洞 │
│ • 公共场所实时生物识别(例外) │
├─────────────────────────────────────────────────────┤
│ 高风险(严格要求) │
│ • 生物识别 │
│ • 关键基础设施管理 │
│ • 教育/职业培训访问 │
│ • 就业、员工管理、招聘 │
│ • 基本服务访问(信贷、保险) │
│ • 执法 │
│ • 移民、庇护、边境控制 │
│ • 司法和民主进程 │
├─────────────────────────────────────────────────────┤
│ 有限风险(透明度义务) │
│ • 聊天机器人(必须披露AI交互) │
│ • 情感识别系统 │
│ • 生物识别分类 │
│ • 深度伪造(必须标注为生成) │
├─────────────────────────────────────────────────────┤
│ 最小风险(无特定要求) │
│ • AI增强视频游戏 │
│ • 垃圾邮件过滤器 │
│ • 库存管理 │
└─────────────────────────────────────────────────────┘
高风险AI要求
| 要求 | 描述 | 实施 |
|---|---|---|
| 风险管理 | 持续风险管理系统 | 风险评估流程 |
| 数据治理 | 训练数据质量和治理 | 数据文档 |
| 技术文档 | 详细系统文档 | 系统规格+模型卡 |
| 记录保存 | 事件自动日志 | 审计追踪 |
| 透明度 | 清晰用户指令 | 用户文档 |
| 人工监督 | 人工干预能力 | 人在回路机制 |
| 准确性、稳健性、网络安全 | 适当性能水平 | 测试+监控 |
风险分类决策树
public class EuAiActClassifier
{
public AiRiskCategory Classify(AiSystemDescription system)
{
// 首先检查禁止实践
if (IsProhibited(system))
return AiRiskCategory.Unacceptable;
// 检查附件III高风险类别
if (IsHighRiskCategory(system))
return AiRiskCategory.High;
// 检查附件I产品安全立法
if (RequiresProductConformity(system))
return AiRiskCategory.High;
// 检查透明度义务
if (RequiresTransparency(system))
return AiRiskCategory.Limited;
return AiRiskCategory.Minimal;
}
private bool IsProhibited(AiSystemDescription system)
{
return system.UseCases.Any(uc =>
uc.Type == UseCaseType.SocialScoring ||
uc.Type == UseCaseType.SubliminalManipulation ||
uc.Type == UseCaseType.VulnerabilityExploitation ||
(uc.Type == UseCaseType.RealTimeBiometricId &&
uc.Context == Context.PublicSpace &&
!uc.HasLawEnforcementException));
}
private bool IsHighRiskCategory(AiSystemDescription system)
{
var highRiskCategories = new[]
{
Domain.BiometricIdentification,
Domain.CriticalInfrastructure,
Domain.EducationAccess,
Domain.Employment,
Domain.EssentialServices,
Domain.LawEnforcement,
Domain.MigrationAsylum,
Domain.JusticeProcesses
};
return highRiskCategories.Contains(system.Domain);
}
}
public enum AiRiskCategory
{
Unacceptable,
High,
Limited,
Minimal
}
NIST AI风险管理框架
四个功能
┌─────────────────────────────────────────────────────────────┐
│ 治理 │
│ 文化、政策、问责结构 │
│ ↓ │
├─────────────────────────────────────────────────────────────┤
│ 映射 测量 管理 │
│ 上下文和风险 → 评估风险 → 优先和 │
│ 识别 和影响 缓解 │
└─────────────────────────────────────────────────────────────┘
治理功能
建立AI治理结构:
## AI治理结构
### 角色和责任
| 角色 | 责任 |
|------|------------------|
| AI治理委员会 | 战略监督、政策批准 |
| AI伦理官 | 伦理审查、偏见评估 |
| AI风险经理 | 风险识别、缓解跟踪 |
| 模型所有者 | 生命周期管理、性能 |
| 技术负责人 | 实施、测试、监控 |
### 所需政策
- [ ] AI开发政策
- [ ] 模型风险管理政策
- [ ] AI伦理指南
- [ ] 数据质量标准
- [ ] 人工监督要求
- [ ] AI故障事件响应
映射功能
理解上下文和识别风险:
public class AiContextMapping
{
public record AiSystemContext
{
public required string SystemName { get; init; }
public required string Purpose { get; init; }
public required List<string> Stakeholders { get; init; }
public required List<string> ImpactedGroups { get; init; }
public required string DecisionType { get; init; } // 增强 vs 自动化
public required bool InvolvesVulnerablePopulations { get; init; }
public required List<string> PotentialHarms { get; init; }
public required List<string> PotentialBenefits { get; init; }
public required List<string> LegalConstraints { get; init; }
}
public ContextAssessment Assess(AiSystemContext context)
{
var risks = new List<IdentifiedRisk>();
// 评估利益相关者影响
foreach (var group in context.ImpactedGroups)
{
risks.Add(new IdentifiedRisk
{
Category = "利益相关者影响",
Description = $"对{group}的潜在影响",
Severity = context.InvolvesVulnerablePopulations
? RiskSeverity.High
: RiskSeverity.Medium
});
}
// 评估潜在危害
foreach (var harm in context.PotentialHarms)
{
risks.Add(new IdentifiedRisk
{
Category = "潜在危害",
Description = harm,
Severity = DetermineHarmSeverity(harm)
});
}
return new ContextAssessment
{
Context = context,
IdentifiedRisks = risks,
RecommendedMitigations = GenerateMitigations(risks)
};
}
}
测量功能
评估和分析AI风险:
## 风险评估框架
### 可信赖特性
| 特性 | 评估问题 |
|----------------|---------------------|
| **有效和可靠** | 系统是否按预期执行?结果是否一致? |
| **安全** | 系统是否可能造成伤害?安全控制是否充分? |
| **安全和弹性** | 系统是否受到攻击保护?能否恢复? |
| **可问责和透明** | 能否解释决策?是否有清晰所有权? |
| **可解释和可理解** | 用户能否理解输出?能否审计决策? |
| **隐私增强** | 个人数据是否受保护?是否应用数据最小化? |
| **公平(偏见管理)** | 结果是否公平?是否检测和缓解偏见? |
### 测量指标
| 指标 | 描述 | 目标 |
|--------|-------------|--------|
| 准确度 | 正确预测/总数 | ≥95% |
| 公平差距 | 组间最大差异 | ≤5% |
| 可解释性 | 有解释的决策 | 100% |
| 事件率 | 每1000次使用中的失败 | <1 |
| 人工覆盖率 | 手动干预 | 跟踪 |
管理功能
优先和实现缓解措施:
public class AiRiskManagement
{
public record RiskMitigation
{
public required string RiskId { get; init; }
public required string Risk { get; init; }
public required RiskSeverity Severity { get; init; }
public required List<string> Controls { get; init; }
public required string Owner { get; init; }
public required DateTimeOffset DueDate { get; init; }
public required MitigationStatus Status { get; init; }
}
public RiskTreatmentPlan CreateTreatmentPlan(
IEnumerable<IdentifiedRisk> risks)
{
var prioritized = risks
.OrderByDescending(r => r.Severity)
.ThenByDescending(r => r.Likelihood);
var plan = new RiskTreatmentPlan();
foreach (var risk in prioritized)
{
var treatment = DetermineTreatment(risk);
switch (treatment)
{
case TreatmentType.Avoid:
plan.Avoidances.Add(CreateAvoidanceAction(risk));
break;
case TreatmentType.Mitigate:
plan.Mitigations.Add(CreateMitigationPlan(risk));
break;
case TreatmentType.Transfer:
plan.Transfers.Add(CreateTransferPlan(risk));
break;
case TreatmentType.Accept:
plan.Acceptances.Add(CreateAcceptanceRecord(risk));
break;
}
}
return plan;
}
}
负责任AI原则
核心原则
| 原则 | 描述 | 实施 |
|---|---|---|
| 公平性 | 公平待遇、非歧视 | 偏见测试、公平指标 |
| 透明度 | 清晰AI使用和限制 | 披露、解释 |
| 可问责性 | 清晰所有权和责任 | 治理、审计追踪 |
| 隐私 | 保护个人数据 | 数据最小化、同意 |
| 安全性 | 防止伤害 | 测试、防护栏、监控 |
| 人工控制 | 有意义的人工监督 | 人在回路、覆盖能力 |
模型文档(模型卡)
# 模型卡:[模型名称]
## 模型详情
- **开发者**:[组织]
- **版本**:[X.Y.Z]
- **类型**:[分类/回归/生成等]
- **框架**:[PyTorch/TensorFlow等]
- **许可证**:[许可证]
## 预期用途
- **主要用例**:[列表]
- **用户**:[目标用户]
- **超出范围用途**:[禁止或不受支持用途]
## 训练数据
- **数据集**:[名称和来源]
- **大小**:[示例数量]
- **特征**:[关键特征]
- **预处理**:[应用步骤]
- **已知限制**:[数据差距或偏见]
## 评估
- **指标**:[准确度、F1等]
- **测试数据**:[保留集描述]
- **结果**:[性能数字]
- **公平性评估**:[分解指标]
## 伦理考虑
- **敏感用例**:[如果适用]
- **潜在滥用**:[风险]
- **缓解措施**:[控制措施]
## 限制和建议
- **已知限制**:[模型弱点]
- **建议**:[用户最佳实践]
算法影响评估
## 算法影响评估
### 1. 系统描述
- **名称**:[系统名称]
- **目的**:[业务目标]
- **决策类型**:[它通知/做出的决策]
- **受影响方**:[谁受影响]
### 2. 数据评估
- **数据来源**:[数据来源]
- **个人数据**:[收集类型]
- **敏感属性**:[受保护特征]
- **历史偏见风险**:[评估]
### 3. 影响评估
#### 积极影响
| 影响 | 受益者 | 程度 |
|--------|-------------|-----------|
| [影响] | [组] | [高/中/低] |
#### 消极影响
| 影响 | 受影响组 | 程度 | 缓解 |
|--------|----------------|-----------|------------|
| [影响] | [组] | [高/中/低] | [行动] |
### 4. 公平性评估
- **分析受保护组**:[列表]
- **使用公平指标**:[人口统计学平等等]
- **发现的差异**:[结果]
- **补救计划**:[行动]
### 5. 人工监督
- **监督级别**:[全自动 / 人在回路 / 人在回路上]
- **覆盖机制**:[人类如何干预]
- **升级路径**:[何时升级]
### 6. 监控计划
- **性能指标**:[跟踪什么]
- **公平性指标**:[持续监控]
- **审查频率**:[节奏]
- **触发阈值**:[何时调查]
### 7. 批准
| 角色 | 姓名 | 批准 | 日期 |
|------|------|----------|------|
| 模型所有者 | | [ ] | |
| AI伦理 | | [ ] | |
| 法律 | | [ ] | |
| 业务 | | [ ] | |
AI治理检查清单
开发前
- [ ] 分类AI系统风险级别(欧盟AI法案)
- [ ] 进行算法影响评估
- [ ] 识别监管要求
- [ ] 建立治理结构
- [ ] 定义成功指标(包括公平性)
- [ ] 文档化预期用途和限制
开发中
- [ ] 在整个开发过程中实施偏见测试
- [ ] 创建模型文档(模型卡)
- [ ] 构建可解释性功能
- [ ] 实施人工监督机制
- [ ] 创建审计日志
- [ ] 与多样利益相关者测试
部署
- [ ] 最终公平性评估
- [ ] 就位透明度披露
- [ ] 测试人工覆盖机制
- [ ] 配置监控仪表板
- [ ] 就位事件响应计划
- [ ] 完成用户文档
运营
- [ ] 定期偏见监控
- [ ] 性能漂移检测
- [ ] 定期公平性审计
- [ ] 模型再训练治理
- [ ] 事件跟踪和响应
- [ ] 收集利益相关者反馈
交叉参考
- 偏见评估:通过MCP研究(困惑度:“AI偏见评估框架 NIST”)
- 可解释性:通过MCP研究(困惑度:“AI可解释性 XAI 技术”)
- 数据隐私:
gdpr-compliance用于数据保护 - 伦理:
ethics-review用于伦理评估