伦理审查Skill ethics-review

该技能提供全面的技术系统和AI应用伦理评估指南,包括伦理影响评估、利益相关者分析和负责任创新框架,帮助识别和缓解伦理风险,促进负责任的技术创新。关键词:AI伦理,技术伦理,伦理审查,负责任创新,AI治理,伦理评估,利益相关者分析,危害评估,公平性,透明度。

AI应用 0 次安装 0 次浏览 更新于 3/11/2026

名称:伦理审查 描述:AI和技术伦理审查,包括伦理影响评估、利益相关者分析和负责任创新框架 允许工具:读取、全局查找、搜索、写入、编辑、任务

伦理审查

全面的技术系统和AI应用伦理评估指南,促进负责任创新。

何时使用此技能

  • 为新项目进行伦理影响评估
  • 评估AI系统的伦理风险
  • 建立伦理审查委员会和流程
  • 为技术团队制定伦理准则
  • 评估利益相关者影响和潜在危害

核心伦理原则

基础原则

原则 描述 应用
仁慈 行善,最大化利益 设计以实现积极结果
不伤害 避免伤害,最小化风险 识别和减轻危害
自主性 尊重个人选择 知情同意,退出选项
正义 公平分配利益/负担 平等获取,无歧视
透明度 系统工作方式开放透明 可解释AI,清晰文档
问责制 明确责任 所有权,审计追踪
隐私 保护个人信息 数据最小化,同意原则

技术特定原则

AI/ML系统:
├── 公平性 - 跨群体公平对待
├── 可解释性 - 可理解的决策
├── 可靠性 - 一致、可预测的行为
├── 安全性 - 防止伤害,安全失败
├── 隐私 - 保护个人数据
├── 安全性 - 抵抗对抗性攻击
├── 包容性 - 所有用户可访问
└── 人类控制 - 有意义的人类监督

伦理影响评估框架

评估流程

┌─────────────────────────────────────────────────────────────┐
│                  伦理影响评估                                │
├─────────────────────────────────────────────────────────────┤
│  1. 描述       │ 系统目的、能力、上下文                     │
├──────────────────┼──────────────────────────────────────────┤
│  2. 利益相关者 │ 识别所有受影响方                           │
│    分析         │ 映射利益和关切                           │
├──────────────────┼──────────────────────────────────────────┤
│  3. 影响       │ 评估利益和危害                             │
│    评估         │ 评估可能性和严重性                       │
├──────────────────┼──────────────────────────────────────────┤
│  4. 伦理       │ 应用伦理原则                               │
│    分析         │ 识别冲突和张力                           │
├──────────────────┼──────────────────────────────────────────┤
│  5. 缓解       │ 设计控制和安全措施                         │
│    规划         │ 定义监控方法                             │
├──────────────────┼──────────────────────────────────────────┤
│  6. 决策与     │ 批准、修改或拒绝                           │
│    审查         │ 安排持续审查                             │
└─────────────────────────────────────────────────────────────┘

伦理影响评估模板

# 伦理影响评估

## 1. 系统描述

### 目的
[系统设计用来做什么?]

### 能力
[系统能做什么?它做出或影响哪些决策?]

### 上下文
[系统将在哪里和如何使用?]

### 数据
[系统使用什么数据?如何收集?]

---

## 2. 利益相关者分析

### 直接利益相关者
| 利益相关者 | 关系 | 利益 | 权力 | 关切 |
|-------------|--------------|-----------|-------|----------|
| [群体] | [关系] | [利益] | [高/中/低] | [关切] |

### 间接利益相关者
| 利益相关者 | 如何受影响 | 利益 | 关切 |
|-------------|--------------|-----------|----------|
| [群体] | [影响] | [利益] | [关切] |

### 弱势群体
| 群体 | 脆弱性 | 特殊考虑 |
|-------|---------------|----------------------|
| [群体] | [为何脆弱] | [所需保护] |

---

## 3. 影响评估

### 利益
| 利益 | 受益者 | 规模 | 可能性 |
|---------|-------------|-----------|------------|
| [利益] | [谁] | [高/中/低] | [高/中/低] |

### 潜在危害
| 危害 | 受影响群体 | 严重性 | 可能性 | 可逆性? |
|------|----------------|----------|------------|-------------|
| [危害] | [谁] | [高/中/低] | [高/中/低] | [是/否] |

### 非预期后果
| 后果 | 描述 | 风险级别 |
|-------------|-------------|------------|
| [后果] | [详情] | [高/中/低] |

---

## 4. 伦理分析

### 原则评估

| 原则 | 支持 | 张力 | 评分 (1-5) |
|-----------|----------|----------|-------------|
| 仁慈 | [如何] | [冲突] | [评分] |
| 不伤害 | [如何] | [冲突] | [评分] |
| 自主性 | [如何] | [冲突] | [评分] |
| 正义 | [如何] | [冲突] | [评分] |
| 透明度 | [如何] | [冲突] | [评分] |
| 问责制 | [如何] | [冲突] | [评分] |
| 隐私 | [如何] | [冲突] | [评分] |

### 伦理困境
| 困境 | 权衡 | 提议解决方案 |
|---------|-----------|---------------------|
| [困境] | [权衡] | [解决方案] |

---

## 5. 缓解计划

### 技术缓解措施
| 风险 | 缓解措施 | 负责人 | 状态 |
|------|------------|-------|--------|
| [风险] | [控制] | [谁] | [状态] |

### 程序缓解措施
| 风险 | 缓解措施 | 负责人 | 状态 |
|------|------------|-------|--------|
| [风险] | [流程] | [谁] | [状态] |

### 监控计划
| 指标 | 阈值 | 频率 | 响应 |
|--------|-----------|-----------|----------|
| [指标] | [限制] | [频率] | [行动] |

---

## 6. 决策

### 建议
[ ] 批准 - 按当前设计进行
[ ] 有条件批准 - 缓解后进行
[ ] 推迟 - 需要进一步分析
[ ] 拒绝 - 不可接受的伦理风险

### 条件(如适用)
1. [条件]
2. [条件]

### 审查计划
- 初始审查:[日期]
- 持续审查:[频率]

### 批准
| 角色 | 姓名 | 决策 | 日期 |
|------|------|----------|------|
| 伦理委员会 | | [ ] | |
| 技术负责人 | | [ ] | |
| 业务负责人 | | [ ] | |
| 法律 | | [ ] | |

危害评估框架

危害类别

直接危害:
├── 对个体的身体伤害
├── 心理伤害(压力、操纵)
├── 财务伤害(欺诈、损失)
├── 隐私伤害(暴露、监控)
├── 歧视伤害(不公平对待)
└── 自主性伤害(操纵、胁迫)

间接/系统性危害:
├── 环境危害
├── 民主危害(操纵、分裂)
├── 经济危害(取代、不平等)
├── 社会危害(信任侵蚀、关系)
└── 文化危害(同质化、丧失)

群体特定危害:
├── 对边缘群体的危害
├── 对弱势人群的危害
├── 对后代人的危害
└── 对非用户的危害

危害严重性矩阵

               可逆性
               容易   困难      永久
严      低      1         2          3
重      中      2         4          6
性      高      3         6          9
        极端    4         8         12

分数:
1-2:  可接受,需监控
3-4:  需要缓解
6-8:  需要显著控制
9-12: 可能不可接受

AI伦理具体内容

AI伦理检查清单

public class AiEthicsChecklist
{
    public List<EthicsCheckItem> GetChecklist()
    {
        return new List<EthicsCheckItem>
        {
            // 公平性
            new("FAIR-01", "偏见测试",
                "模型是否针对受保护群体进行了偏见测试?",
                EthicsCategory.Fairness, Priority.Critical),
            new("FAIR-02", "公平性指标",
                "是否定义并监控了公平性指标?",
                EthicsCategory.Fairness, Priority.High),
            new("FAIR-03", "训练数据",
                "训练数据是否代表性强且无历史偏见?",
                EthicsCategory.Fairness, Priority.Critical),

            // 透明度
            new("TRANS-01", "可解释性",
                "系统是否能向受影响用户解释其决策?",
                EthicsCategory.Transparency, Priority.High),
            new("TRANS-02", "AI披露",
                "用户是否被告知他们正在与AI交互?",
                EthicsCategory.Transparency, Priority.Critical),
            new("TRANS-03", "限制披露",
                "系统限制是否清晰沟通?",
                EthicsCategory.Transparency, Priority.High),

            // 人类控制
            new("CTRL-01", "人类监督",
                "是否有有意义的人类监督AI决策?",
                EthicsCategory.HumanControl, Priority.Critical),
            new("CTRL-02", "覆盖能力",
                "人类在需要时能否覆盖AI决策?",
                EthicsCategory.HumanControl, Priority.High),
            new("CTRL-03", "升级路径",
                "是否有清晰的升级路径处理令人担忧的输出?",
                EthicsCategory.HumanControl, Priority.High),

            // 安全性
            new("SAFE-01", "伤害预防",
                "是否有防止有害输出的保障措施?",
                EthicsCategory.Safety, Priority.Critical),
            new("SAFE-02", "故障安全设计",
                "系统在发生错误时是否安全失败?",
                EthicsCategory.Safety, Priority.High),
            new("SAFE-03", "对抗性测试",
                "系统是否针对对抗性输入进行了测试?",
                EthicsCategory.Safety, Priority.High),

            // 隐私
            new("PRIV-01", "数据最小化",
                "系统是否仅收集必要数据?",
                EthicsCategory.Privacy, Priority.High),
            new("PRIV-02", "同意",
                "是否有知情同意用于数据使用?",
                EthicsCategory.Privacy, Priority.Critical),
            new("PRIV-03", "数据保护",
                "个人数据是否得到充分保护?",
                EthicsCategory.Privacy, Priority.Critical),

            // 问责制
            new("ACCT-01", "责任",
                "是否有明确的所有权负责系统结果?",
                EthicsCategory.Accountability, Priority.High),
            new("ACCT-02", "审计追踪",
                "决策是否被记录以用于问责?",
                EthicsCategory.Accountability, Priority.High),
            new("ACCT-03", "补救机制",
                "受影响方是否有寻求补救的途径?",
                EthicsCategory.Accountability, Priority.High)
        };
    }
}

算法影响问题

问题 重要性
谁从此算法中受益? 确保利益公平分配
谁可能受到伤害? 识别弱势人群
当它出错时会发生什么? 理解失败影响
能否被游戏或操纵? 评估对抗性风险
是否强化了现有的不平等? 检查系统性偏见
可能出现什么反馈循环? 预测非预期后果
是否有有意义的人类监督? 确保问责制
决策能否被解释? 支持透明度
同意是否有意义和知情? 尊重自主性
长期社会效应是什么? 考虑系统性影响

伦理审查委员会

委员会结构

伦理审查委员会组成:
├── 主席(高级领导)
├── 伦理官员(如适用)
├── 技术负责人(理解技术)
├── 法律代表
├── 隐私官员
├── 业务代表
├── 外部伦理学家(可选但推荐)
└── 用户/社区代表(针对重大决策)

审查阈值

触发条件 审查级别 时间线
新AI/ML系统 委员会全面审查 开发前
高风险应用 委员会全面审查 部署前
显著模型更新 快速审查 发布前
事件或投诉 事后审查 一周内
年度审查 委员会全面审查 每年
员工关切 快速审查 两周内

委员会决策框架

public enum EthicsDecision
{
    Approved,                    // 按设计进行
    ApprovedWithConditions,      // 在指定更改后进行
    RequiresRedesign,           // 需要根本性更改
    Deferred,                   // 需要更多信息
    Rejected,                   // 不可接受的伦理风险
    EscalateToExecutive         // 超出委员会权限
}

public class EthicsReviewResult
{
    public required EthicsDecision Decision { get; init; }
    public required string Rationale { get; init; }
    public List<string> Conditions { get; init; } = new();
    public List<string> MonitoringRequirements { get; init; } = new();
    public DateTimeOffset? NextReviewDate { get; init; }
    public List<BoardMemberVote> Votes { get; init; } = new();
}

负责任创新框架

阶段门伦理集成

阶段1:构思
├── 初始伦理筛查
├── 识别潜在关切
└── 研究前进/停止决策

阶段2:研究与设计
├── 利益相关者分析
├── 初步影响评估
└── 伦理设计集成

阶段3:开发
├── 持续伦理审查
├── 偏见/危害测试
└── 文档化

阶段4:部署前
├── 完整伦理影响评估
├── 委员会审查(如触发)
└── 缓解措施验证

阶段5:部署
├── 监控计划激活
├── 反馈机制
└── 事件响应准备

阶段6:运营
├── 持续监控
├── 定期审查
└── 持续改进

伦理审查检查清单

开发前

  • [ ] 伦理影响评估完成
  • [ ] 利益相关者分析文档化
  • [ ] 潜在危害识别
  • [ ] 咨询伦理审查委员会(如需要)
  • [ ] 缓解计划定义

开发中

  • [ ] 应用伦理设计原则
  • [ ] 进行偏见测试
  • [ ] 内置可解释性
  • [ ] 设计人类监督
  • [ ] 文档完成

部署前

  • [ ] 完整评估审查
  • [ ] 所有缓解措施实施
  • [ ] 监控就位
  • [ ] 补救机制准备
  • [ ] 获得伦理签字

运营中

  • [ ] 定期监控激活
  • [ ] 收集并审查反馈
  • [ ] 调查事件
  • [ ] 安排定期重新评估

交叉参考

  • AI治理ai-governance 用于监管合规
  • 偏见评估:通过MCP研究公平性指标(困惑度:“AI公平性指标 NIST”)
  • 数据隐私gdpr-compliance 用于隐私考虑

资源