🔬

电车问题模拟器

用真实研究数据探索道德困境

🔬 立即试用

什么是电车问题?

电车问题是由菲利帕·福特(1967年)提出的伦理学思想实验。一辆失控的电车将撞死5个人,除非你把它转向一条侧轨,在那里它会撞死1个人。它揭示了功利主义和义务论道德框架之间的深层张力,现在已成为AI伦理和自动驾驶汽车设计的核心议题。

📖 深入了解

类比 1

想象一下,你是海滩上唯一的救生员:你看到左边有五个人溺水,右边有一个人溺水。您只能向一个方向游。救五个人就意味着一个人被淹死。电车难题询问的是,主动选择谁死与让命运决定在道德上是否不同。

类比 2

想象一下,一名医生有五名垂死的病人,每人都需要不同的器官。一位健康的访客走进来。医生是否应该摘取访客的器官以挽救五个人的生命?大多数人都说不——这表明我们的道德直觉超出了拯救生命的简单数学计算范围。

🎯 模拟器提示

初学者

从经典电车场景开始——大约 80% 的人选择拉动控制杆

中级

使用“全局统计”按钮将您的选择与已发布的研究数据进行比较

专家

画布上的迷你饼图跟踪您在所有场景中的功利主义与义务主义比率

📚 术语表

Trolley Problem
道德思想实验:你应该改变一辆失控电车的方向去杀死一个人而不是五个人吗?
Deontological Ethics
道德框架通过规则/义务(例如“不杀戮”)来判断行为,而不考虑后果。
Consequentialism
道德框架仅根据结果来判断行为——选择最大化福祉的选项。
Utilitarianism
结果主义理论:正确的行动是为最大多数人带来最大幸福的行动。
Double Effect
区分故意伤害(将某人拉到轨道上)和可预见的副作用(使电车改道)的原则。
Fat Man Variant
电车问题的变体:你会把一个大人推下桥来阻止电车吗?测试关于直接性的直觉。
Moral Intuition
理论前对正确与错误的直觉,在不同的手推车变体中往往不一致。
Trolley Dilemma in AI
自动驾驶应用与人工智能决策:自动驾驶汽车如何解决不可避免的伤害?
Moral Machine
麻省理工学院的一项实验收集了数以百万计的跨文化自动驾驶汽车类似电车困境的反应。
Moral Luck
道德判断可能受到与电车结果相关的无法控制的因素影响的概念。
Virtue Ethics
框架侧重于性格特征:一个有道德的人在这种情况下会做什么?
Action vs Omission
主动造成伤害(拉动杠杆)和因不作为而造成伤害(什么都不做)之间的区别。

🏆 关键人物

Philippa Foot (1967)

牛津哲学家,将电车难题引入伦理理论的思想实验

Judith Jarvis Thomson (1985)

麻省理工学院哲学家开发了胖子变体并对电车问题进行了更深入的分析

Peter Singer (1972)

普林斯顿功利主义哲学家认为结果主义答案(除五个)显然是正确的

Iyad Rahwan (2018)

麻省理工学院研究员领导了道德机器实验,这是全球最大的道德偏好研究

Thomas Aquinas (1274)

中世纪哲学家,提出了双重效应学说,这是电车难题分析的核心

🎓 学习资源

💬 给学习者的话

探索道德困境的迷人世界。没有错误的答案——只有对自己的道德框架有更深入的了解!

开始使用

免费,无需注册

开始使用 →