这是什么?
AI伦理框架定义了开发负责任AI的原则和规则。主要关注点包括偏见与公平、透明度、问责制、隐私、安全以及对齐问题——确保AI系统做人类真正想要的事情。
📖 深入了解
类比 1
想象一下建立人工智能道德框架就像为一个新的机器国家编写宪法一样。正如宪法平衡个人自由与公共安全一样,人工智能框架也必须平衡创新速度与人类保护——不同的社区会以不同的方式权衡这些优先事项。
类比 2
想象一下,雇用一名速度快得令人难以置信、从不睡觉但没有道德指南针的新员工。在让他们做出有关贷款、招聘或医疗保健的决定之前,您需要创建一本涵盖公平、透明度和问责制的规则手册。该规则手册本质上是一个人工智能道德框架。
🎯 模拟器提示
初学者
首先调整公平权重滑块 - 观察雷达图形状如何实时变化
中级
使用随机场景在不同的 AI 应用程序中对您的框架进行压力测试
专家
在专家模式下,降低偏差阈值以查看更严格的标准如何影响整体决策置信度
📚 术语表
🏆 关键人物
Stuart Russell (2019)
加州大学伯克利分校教授,将人工智能对齐重新定义为核心挑战,《人类兼容》一书的作者
Timnit Gebru (2020)
人工智能伦理研究员,共同撰写了有关大语言模型风险的有影响力的论文并创立了 DAIR 研究所
Joy Buolamwini (2018)
麻省理工学院研究员创立算法正义联盟,揭露面部识别中的种族偏见
Yoshua Bengio (2023)
深度学习先驱(2018年图灵奖),成为人工智能安全监管的领军人物
UNESCO (2021)
发布第一份全球人工智能伦理建议书,获得 193 个成员国采纳
🎓 学习资源
- On the Dangers of Stochastic Parrots [paper]
关于大型语言模型的环境和社会风险的有影响力的论文(FAccT 2021) - Fairness and Abstraction in Sociotechnical Systems [paper]
用于理解社会背景如何塑造人工智能公平性的框架 (FAT* 2019) - AI Ethics Guidelines Global Inventory [article]
来自世界各地 160 多个人工智能道德准则的数据库 - Partnership on AI [article]
多利益相关方组织为负责任的人工智能开发最佳实践