名称:伦理审查
描述:AI和技术伦理审查,包括伦理影响评估、利益相关者分析和负责任创新框架
允许工具:读取、全局查找、搜索、写入、编辑、任务
伦理审查
全面的技术系统和AI应用伦理评估指南,促进负责任创新。
何时使用此技能
- 为新项目进行伦理影响评估
- 评估AI系统的伦理风险
- 建立伦理审查委员会和流程
- 为技术团队制定伦理准则
- 评估利益相关者影响和潜在危害
核心伦理原则
基础原则
| 原则 |
描述 |
应用 |
| 仁慈 |
行善,最大化利益 |
设计以实现积极结果 |
| 不伤害 |
避免伤害,最小化风险 |
识别和减轻危害 |
| 自主性 |
尊重个人选择 |
知情同意,退出选项 |
| 正义 |
公平分配利益/负担 |
平等获取,无歧视 |
| 透明度 |
系统工作方式开放透明 |
可解释AI,清晰文档 |
| 问责制 |
明确责任 |
所有权,审计追踪 |
| 隐私 |
保护个人信息 |
数据最小化,同意原则 |
技术特定原则
AI/ML系统:
├── 公平性 - 跨群体公平对待
├── 可解释性 - 可理解的决策
├── 可靠性 - 一致、可预测的行为
├── 安全性 - 防止伤害,安全失败
├── 隐私 - 保护个人数据
├── 安全性 - 抵抗对抗性攻击
├── 包容性 - 所有用户可访问
└── 人类控制 - 有意义的人类监督
伦理影响评估框架
评估流程
┌─────────────────────────────────────────────────────────────┐
│ 伦理影响评估 │
├─────────────────────────────────────────────────────────────┤
│ 1. 描述 │ 系统目的、能力、上下文 │
├──────────────────┼──────────────────────────────────────────┤
│ 2. 利益相关者 │ 识别所有受影响方 │
│ 分析 │ 映射利益和关切 │
├──────────────────┼──────────────────────────────────────────┤
│ 3. 影响 │ 评估利益和危害 │
│ 评估 │ 评估可能性和严重性 │
├──────────────────┼──────────────────────────────────────────┤
│ 4. 伦理 │ 应用伦理原则 │
│ 分析 │ 识别冲突和张力 │
├──────────────────┼──────────────────────────────────────────┤
│ 5. 缓解 │ 设计控制和安全措施 │
│ 规划 │ 定义监控方法 │
├──────────────────┼──────────────────────────────────────────┤
│ 6. 决策与 │ 批准、修改或拒绝 │
│ 审查 │ 安排持续审查 │
└─────────────────────────────────────────────────────────────┘
伦理影响评估模板
# 伦理影响评估
## 1. 系统描述
### 目的
[系统设计用来做什么?]
### 能力
[系统能做什么?它做出或影响哪些决策?]
### 上下文
[系统将在哪里和如何使用?]
### 数据
[系统使用什么数据?如何收集?]
---
## 2. 利益相关者分析
### 直接利益相关者
| 利益相关者 | 关系 | 利益 | 权力 | 关切 |
|-------------|--------------|-----------|-------|----------|
| [群体] | [关系] | [利益] | [高/中/低] | [关切] |
### 间接利益相关者
| 利益相关者 | 如何受影响 | 利益 | 关切 |
|-------------|--------------|-----------|----------|
| [群体] | [影响] | [利益] | [关切] |
### 弱势群体
| 群体 | 脆弱性 | 特殊考虑 |
|-------|---------------|----------------------|
| [群体] | [为何脆弱] | [所需保护] |
---
## 3. 影响评估
### 利益
| 利益 | 受益者 | 规模 | 可能性 |
|---------|-------------|-----------|------------|
| [利益] | [谁] | [高/中/低] | [高/中/低] |
### 潜在危害
| 危害 | 受影响群体 | 严重性 | 可能性 | 可逆性? |
|------|----------------|----------|------------|-------------|
| [危害] | [谁] | [高/中/低] | [高/中/低] | [是/否] |
### 非预期后果
| 后果 | 描述 | 风险级别 |
|-------------|-------------|------------|
| [后果] | [详情] | [高/中/低] |
---
## 4. 伦理分析
### 原则评估
| 原则 | 支持 | 张力 | 评分 (1-5) |
|-----------|----------|----------|-------------|
| 仁慈 | [如何] | [冲突] | [评分] |
| 不伤害 | [如何] | [冲突] | [评分] |
| 自主性 | [如何] | [冲突] | [评分] |
| 正义 | [如何] | [冲突] | [评分] |
| 透明度 | [如何] | [冲突] | [评分] |
| 问责制 | [如何] | [冲突] | [评分] |
| 隐私 | [如何] | [冲突] | [评分] |
### 伦理困境
| 困境 | 权衡 | 提议解决方案 |
|---------|-----------|---------------------|
| [困境] | [权衡] | [解决方案] |
---
## 5. 缓解计划
### 技术缓解措施
| 风险 | 缓解措施 | 负责人 | 状态 |
|------|------------|-------|--------|
| [风险] | [控制] | [谁] | [状态] |
### 程序缓解措施
| 风险 | 缓解措施 | 负责人 | 状态 |
|------|------------|-------|--------|
| [风险] | [流程] | [谁] | [状态] |
### 监控计划
| 指标 | 阈值 | 频率 | 响应 |
|--------|-----------|-----------|----------|
| [指标] | [限制] | [频率] | [行动] |
---
## 6. 决策
### 建议
[ ] 批准 - 按当前设计进行
[ ] 有条件批准 - 缓解后进行
[ ] 推迟 - 需要进一步分析
[ ] 拒绝 - 不可接受的伦理风险
### 条件(如适用)
1. [条件]
2. [条件]
### 审查计划
- 初始审查:[日期]
- 持续审查:[频率]
### 批准
| 角色 | 姓名 | 决策 | 日期 |
|------|------|----------|------|
| 伦理委员会 | | [ ] | |
| 技术负责人 | | [ ] | |
| 业务负责人 | | [ ] | |
| 法律 | | [ ] | |
危害评估框架
危害类别
直接危害:
├── 对个体的身体伤害
├── 心理伤害(压力、操纵)
├── 财务伤害(欺诈、损失)
├── 隐私伤害(暴露、监控)
├── 歧视伤害(不公平对待)
└── 自主性伤害(操纵、胁迫)
间接/系统性危害:
├── 环境危害
├── 民主危害(操纵、分裂)
├── 经济危害(取代、不平等)
├── 社会危害(信任侵蚀、关系)
└── 文化危害(同质化、丧失)
群体特定危害:
├── 对边缘群体的危害
├── 对弱势人群的危害
├── 对后代人的危害
└── 对非用户的危害
危害严重性矩阵
可逆性
容易 困难 永久
严 低 1 2 3
重 中 2 4 6
性 高 3 6 9
极端 4 8 12
分数:
1-2: 可接受,需监控
3-4: 需要缓解
6-8: 需要显著控制
9-12: 可能不可接受
AI伦理具体内容
AI伦理检查清单
public class AiEthicsChecklist
{
public List<EthicsCheckItem> GetChecklist()
{
return new List<EthicsCheckItem>
{
// 公平性
new("FAIR-01", "偏见测试",
"模型是否针对受保护群体进行了偏见测试?",
EthicsCategory.Fairness, Priority.Critical),
new("FAIR-02", "公平性指标",
"是否定义并监控了公平性指标?",
EthicsCategory.Fairness, Priority.High),
new("FAIR-03", "训练数据",
"训练数据是否代表性强且无历史偏见?",
EthicsCategory.Fairness, Priority.Critical),
// 透明度
new("TRANS-01", "可解释性",
"系统是否能向受影响用户解释其决策?",
EthicsCategory.Transparency, Priority.High),
new("TRANS-02", "AI披露",
"用户是否被告知他们正在与AI交互?",
EthicsCategory.Transparency, Priority.Critical),
new("TRANS-03", "限制披露",
"系统限制是否清晰沟通?",
EthicsCategory.Transparency, Priority.High),
// 人类控制
new("CTRL-01", "人类监督",
"是否有有意义的人类监督AI决策?",
EthicsCategory.HumanControl, Priority.Critical),
new("CTRL-02", "覆盖能力",
"人类在需要时能否覆盖AI决策?",
EthicsCategory.HumanControl, Priority.High),
new("CTRL-03", "升级路径",
"是否有清晰的升级路径处理令人担忧的输出?",
EthicsCategory.HumanControl, Priority.High),
// 安全性
new("SAFE-01", "伤害预防",
"是否有防止有害输出的保障措施?",
EthicsCategory.Safety, Priority.Critical),
new("SAFE-02", "故障安全设计",
"系统在发生错误时是否安全失败?",
EthicsCategory.Safety, Priority.High),
new("SAFE-03", "对抗性测试",
"系统是否针对对抗性输入进行了测试?",
EthicsCategory.Safety, Priority.High),
// 隐私
new("PRIV-01", "数据最小化",
"系统是否仅收集必要数据?",
EthicsCategory.Privacy, Priority.High),
new("PRIV-02", "同意",
"是否有知情同意用于数据使用?",
EthicsCategory.Privacy, Priority.Critical),
new("PRIV-03", "数据保护",
"个人数据是否得到充分保护?",
EthicsCategory.Privacy, Priority.Critical),
// 问责制
new("ACCT-01", "责任",
"是否有明确的所有权负责系统结果?",
EthicsCategory.Accountability, Priority.High),
new("ACCT-02", "审计追踪",
"决策是否被记录以用于问责?",
EthicsCategory.Accountability, Priority.High),
new("ACCT-03", "补救机制",
"受影响方是否有寻求补救的途径?",
EthicsCategory.Accountability, Priority.High)
};
}
}
算法影响问题
| 问题 |
重要性 |
| 谁从此算法中受益? |
确保利益公平分配 |
| 谁可能受到伤害? |
识别弱势人群 |
| 当它出错时会发生什么? |
理解失败影响 |
| 能否被游戏或操纵? |
评估对抗性风险 |
| 是否强化了现有的不平等? |
检查系统性偏见 |
| 可能出现什么反馈循环? |
预测非预期后果 |
| 是否有有意义的人类监督? |
确保问责制 |
| 决策能否被解释? |
支持透明度 |
| 同意是否有意义和知情? |
尊重自主性 |
| 长期社会效应是什么? |
考虑系统性影响 |
伦理审查委员会
委员会结构
伦理审查委员会组成:
├── 主席(高级领导)
├── 伦理官员(如适用)
├── 技术负责人(理解技术)
├── 法律代表
├── 隐私官员
├── 业务代表
├── 外部伦理学家(可选但推荐)
└── 用户/社区代表(针对重大决策)
审查阈值
| 触发条件 |
审查级别 |
时间线 |
| 新AI/ML系统 |
委员会全面审查 |
开发前 |
| 高风险应用 |
委员会全面审查 |
部署前 |
| 显著模型更新 |
快速审查 |
发布前 |
| 事件或投诉 |
事后审查 |
一周内 |
| 年度审查 |
委员会全面审查 |
每年 |
| 员工关切 |
快速审查 |
两周内 |
委员会决策框架
public enum EthicsDecision
{
Approved, // 按设计进行
ApprovedWithConditions, // 在指定更改后进行
RequiresRedesign, // 需要根本性更改
Deferred, // 需要更多信息
Rejected, // 不可接受的伦理风险
EscalateToExecutive // 超出委员会权限
}
public class EthicsReviewResult
{
public required EthicsDecision Decision { get; init; }
public required string Rationale { get; init; }
public List<string> Conditions { get; init; } = new();
public List<string> MonitoringRequirements { get; init; } = new();
public DateTimeOffset? NextReviewDate { get; init; }
public List<BoardMemberVote> Votes { get; init; } = new();
}
负责任创新框架
阶段门伦理集成
阶段1:构思
├── 初始伦理筛查
├── 识别潜在关切
└── 研究前进/停止决策
阶段2:研究与设计
├── 利益相关者分析
├── 初步影响评估
└── 伦理设计集成
阶段3:开发
├── 持续伦理审查
├── 偏见/危害测试
└── 文档化
阶段4:部署前
├── 完整伦理影响评估
├── 委员会审查(如触发)
└── 缓解措施验证
阶段5:部署
├── 监控计划激活
├── 反馈机制
└── 事件响应准备
阶段6:运营
├── 持续监控
├── 定期审查
└── 持续改进
伦理审查检查清单
开发前
- [ ] 伦理影响评估完成
- [ ] 利益相关者分析文档化
- [ ] 潜在危害识别
- [ ] 咨询伦理审查委员会(如需要)
- [ ] 缓解计划定义
开发中
- [ ] 应用伦理设计原则
- [ ] 进行偏见测试
- [ ] 内置可解释性
- [ ] 设计人类监督
- [ ] 文档完成
部署前
- [ ] 完整评估审查
- [ ] 所有缓解措施实施
- [ ] 监控就位
- [ ] 补救机制准备
- [ ] 获得伦理签字
运营中
- [ ] 定期监控激活
- [ ] 收集并审查反馈
- [ ] 调查事件
- [ ] 安排定期重新评估
交叉参考
- AI治理:
ai-governance 用于监管合规
- 偏见评估:通过MCP研究公平性指标(困惑度:“AI公平性指标 NIST”)
- 数据隐私:
gdpr-compliance 用于隐私考虑
资源