道德问题一直是制约自动驾驶商业化和大规模普及的关键因素。美国人更喜欢用一个进退两难的道德测试来衡量自动驾驶是否合理。这个测试叫做电车问题
英国哲学家菲利帕富特(Filipa Foot)于1967年首次提出了这一伦理思想实验。问题很简单:假设你看到一辆失控的电车在轨道上高速行驶,电车前方的轨道上有5名不知情的行人。如果你什么都不做,那这五个人就会被电车撞死。在生死关头,你唯一的解决办法就是拉动手边的道岔扳手,让电车进入备用轨道。但问题是,备用车道上有一个不知情的行人。结果原来轨道上的5个人得救了,备用轨道上的1个人牺牲了。在这种情况下,你会拉开关扳手吗?如果用一条命换五条命,你会觉得难以抉择。那么,假设牺牲一个人可以救50个人?
(选自李开复和王永刚的《人工智能》一书)
牛津大学教授凯文达顿通过两个典型的道德困境揭示了这一点。他让一半的精神病患者和一半的正常人回答两个问题:
第一个问题是与我无关的道德困境:电车正在加速,前方轨道上有五名工人。要救这五个工人,唯一的办法就是按下一个开关,让电车转到另一条支线上,但是这条支线上也有一个工人,这样他就会被撞死。你想要按这个开关吗?
真的吗?
大多数人(包括精神病患者和正常人)很快回答是。
第二个问题是与我自己相关的个人道德困境:同一辆电车在轨道上飞驰,前面五个工人毫不知情。你正站在天桥上,恰好有一个巨大的人在你面前。救这五个工人的唯一办法就是把这个人推倒,用身体挡住电车,但是这个
他会被杀死的。你愿意把他推倒吗?
凯文达顿(Kevin Dutton)说,第二种困境调动了我们大脑中的杏仁核,杏仁核是情绪处理和同情的中心,而精神病患者天生缺乏这种能力。
(选自微信官方账号了解自己)
张小静感觉到了萧贵这是他的底线,他对此充满信心。他突然抛出一个问题:你讨厌!"
法庭?"
两个卫兵异口同声地说讨厌。"
"如果你有机会摧毁大唐朝廷,但是会造成很多无辜的人死去,你
你能做到吗?"张小静黑暗中的声音。
"当然了。"它又是同一个声音。很快,一个声音虚弱地问道。很多是多少?"
"五十。"
"动手吧!"
"如果报复法院的行为,你会让500名无辜平民丧命吗?"
"会吗."答案,明显无力。
"那么五千人呢?五万人呢?在你停止这次行动之前会有多少人死去?"
"我们这次只针对法院,所以我们赢了不要对人民做任何事情。"一名警卫终于做出了反应。
张小静停下来,掀开外皮往外看:过来看这里,现在聚集在广场上。"
是的,有差不多五万常安居民。如果光塔爆炸,勤勤恳恳的大楼肯定倒霉,但是这五万
人会变成鬼。"
(选自马伯庸《长安十二时辰》一书)
李泌认为,张小静他的弩瞄准了他自己,这真的杀死了他。只有这样我们才能得到
肖贵信任。为了拯救更多的人,即使牺牲无辜的人,张小静也会毫不犹豫。
做吧,李米。
他们曾经讨论过这个话题。一艘摆渡船遇上了风暴,为了救一百个人,必须杀死一个人向河神献祭。
杀不杀?张小静和李米有完全相同的答案:杀死。但是张小静对这个答案并不满意。
意思,只是因为他说这是一个不可避免的选择。不代表它是对的。
(选自马伯庸《长安十二时辰》一书)
人生总是在做选择题,只是面对的选项不同而已。选择的标准因时而异,但最好能脱离道德约束,做出完全客观的选择。因为道德层面本身是不稳定的,对于可以分成不同意见的内容,很难做到独一无二。如果你只是假设你选择了,你就是在不断的消耗。当你遇到问题并解决它们时,不要不要给自己找问题。以上内容仅作为扩展儿童的学习内容的知识,而不是解决生活问题的方法。