モラルジレンマ(道徳的ジレンマ)と言うと、
有名なのが「トロッコ問題」
トロッコ問題
あなたは線路を走るトロッコの運転手です。
突然トロッコのコントロールが効かなくなりました。
このままだと、線路にいる作業員5人を轢き殺してしまいます。
しかし、
途中のポイントを切りかえれば別の線路に入れます。
そこには作業員はひとりだけです。
あなたはポイントを切りかえますか?
また、
あなたは線路を見おろす橋にいます。
トロッコが暴走し、このままでは作業員5人が轢き殺されてしまいます。
しかし、
あなたの横には大男がいます。
彼を突き落とせば作業者5人を助けることが出来ます。
あなたは大男を突き落としますか?
状況は違うものの
1人が死ぬか5人が死ぬかの選択は同じです。
この質問に大多数が
前者ではポイントを切りかえ、(5人を選択)
後者では大男を突き落とすことはしません。(1人を選択)
何故でしょう?
それは
前者では偶然性(アクシデント:Accident)であって、
後者は意図的(インテンション:Intention)によるものだと思われます。
つまり、
前者は「事故」であるため、5人を救うことを選びますが、
後者では大男を突き落とせば「事件」となるため、1人を選択します。
※自閉症患者や前頭葉を損傷した人は、トロッコ問題では大男を突き落とします。
AI 人工知能
さて、最近話題のAI「人工知能」
様々な分野で開発されていますが、
AIのモラルジレンマはどうでしょう?
いま、問題になっているのは車の自動運転(自動走行車)です。
MITメディアラボでは
自動運転による人工知能の道徳的意思決定に関する研究を公開しています。
MITメディアラボ
https://www.media.mit.edu/
MITメディアラボ(モラル・マシン)
http://moralmachine.mit.edu/hl/ja
ジレンマの例としてトロッコ問題のほか
「囚人のジレンマ」などが有名です。