🔬

電車問題模擬器

用真實研究數據探索道德困境

🔬 立即試用

什麼是電車問題?

電車問題是由菲利帕·福特(1967年)提出的倫理學思想實驗。一輛失控的電車將撞死5個人,除非你把它轉向一條側軌,在那裏它會撞死1個人。它揭示了功利主義和義務論道德框架之間的深層張力,現在已成為AI倫理和自動駕駛汽車設計的核心議題。

📖 深入了解

類比 1

想像一下,你是海灘上唯一的救生員:你看到左邊有五個人溺水,右邊有一個人溺水。您只能向一個方向遊。救五個人就意味著一個人被淹死。電車難題詢問的是,主動選擇誰死與讓命運決定道德上是否不同。

類比 2

想像一下,一名醫生有五名垂死的病人,每個人都需要不同的器官。一位健康的訪客走進來。醫生是否應該摘取訪客的器官以挽救五個人的生命?大多數人都說不——這表明我們的道德直覺超出了拯救生命的簡單數學計算範圍。

🎯 模擬器提示

初學者

從經典電車場景開始——大約 80% 的人選擇拉動控制桿

中級

使用“全局統計”按鈕將您的選擇與已發布的研究數據進行比較

專家

畫布上的迷你餅圖追蹤您在所有場景中的功利主義與義務主義比率

📚 術語表

Trolley Problem
道德思想實驗:你應該改變一輛失控電車的方向去殺死一個人而不是五個人嗎?
Deontological Ethics
道德框架透過規則/義務(例如「不殺戮」)來判斷行為,而不考慮後果。
Consequentialism
道德框架只根據結果來判斷行為-選擇最大化福祉的選項。
Utilitarianism
結果主義理論:正確的行動是為最大多數人帶來最大幸福的行動。
Double Effect
區分故意傷害(將某人拉到軌道上)和可預見的副作用(使電車改道)的原則。
Fat Man Variant
電車問題的變體:你會把一個大人推下橋來阻止電車嗎?測試關於直接性的直覺。
Moral Intuition
理論前對正確與錯誤的直覺,在不同的手推車變體中往往不一致。
Trolley Dilemma in AI
自動駕駛應用與人工智慧決策:自動駕駛汽車如何解決不可避免的傷害?
Moral Machine
麻省理工學院的一項實驗收集了數以百萬計的跨文化自動駕駛汽車類似電車困境的反應。
Moral Luck
道德判斷可能受到與電車結果相關的無法控制的因素影響的概念。
Virtue Ethics
框架著重於性格特徵:一個有道德的人在這種情況下會做什麼?
Action vs Omission
主動造成傷害(拉動槓桿)和因不作為而造成傷害(什麼都不做)之間的差異。

🏆 關鍵人物

Philippa Foot (1967)

牛津哲學家,將電車難題引入倫理理論的思想實驗

Judith Jarvis Thomson (1985)

麻省理工學院哲學家開發了胖子變體並對電車問題進行了更深入的分析

Peter Singer (1972)

普林斯頓功利主義哲學家認為結果主義答案(除五個)顯然是正確的

Iyad Rahwan (2018)

麻省理工學院研究員領導了道德機器實驗,這是全球最大的道德偏好研究

Thomas Aquinas (1274)

中世紀哲學家,提出了雙重效應學說,這是電車難題分析的核心

🎓 學習資源

💬 畀學習者嘅話

探索道德兩難的迷人世界。沒有錯誤的答案-只有對自己的道德框架有更深入的了解!

開始使用

免費,唔使註冊

開始使用 →