麻省理工学院(MIT)近日发表一项研究,旨在探讨自动驾驶发生车祸时应该撞谁的道德难题。该研究自 2016 年以来收集了 233 个国家,超过 2 百万名参与者的 4 千万次决策,堪称是史上规模最大的道德心理学研究。研究发现,自驾车意外时,人们倾向保护人类而非动物,年轻人而非老人, 群体而非个人。
道德机器实验
当行驶中的汽车已无可避免即将发生车祸,你会选择撞死一群猫还是一群孩子?你会选择自撞结束自己及乘客的性命,还是撞死一群正在过马路的无辜老人?更或者,是孕妇与小孩?是两名罪犯?是三位无家可归的人?或是几个企业高层?这是一个由麻省理工学院研究员埃德蒙·阿瓦德博士(Edmond Awad)所带领的研究团队,在其最新研究「道德机器」(Moral Machine)实验所探讨的问题。此研究列举 13 种可能的车祸场景,并收集来自 233 个国家,超过 2 百万位参与者的回答,目的在了解自驾车发生意外时,人们认为自驾车应该牺牲谁,保护谁。
道德机器是一个研究团队于 2016 年设计的游戏化问卷,目的在了解你我最基本的道德问题。问题类似「电车难题」(trolley problem),这是一个伦理学领域的知名实验,内容是假设你驾驶一辆无法停下的电车,你会撞上前方轨道上的五位工人,或者改变轨道撞上备用轨道上的一个人。只不过这次的问题是为了自驾车而设计的。研究团队从数据中发现,整体来说人们通常倾向于保护人类而非动物、年轻人而非老人、群体而非个人。然而关于要保护谁,还是具有文化上的差异。例如,拉丁美洲国家的人会选择保护年轻人而非老年人,但亚洲人就刚好相反。又例如大部分的人会选择保护守法的路人,而不是乘客或乱穿越马路的人。不过在较穷困的国家,司机通常对于胡乱穿越马路的人比较宽容。
自动化产生的道德两难
本研究的共同作者,加拿大卑诗大学(University of British Columbia)心理系研究员阿齐姆·雪瑞夫博士(Azim Shariff)表示,在这种车祸要发生的危险情况之下,大部分驾驶会透过直觉做出反应,但是自驾车则具有仔细思考的空间。自驾车会为路上不同的人重新分散风险,然后做出决定。随着自动化逐渐成为我们生活的中心,本实验的参与者被卷入一个渐渐浮现的道德难题:我们到底该给机器多少的决定权?尽管这种「电车难题」,在现实世界实际发生状况可能很少,但该问题反映出,当人们得决定一个人的生死时,仍是相当恐惧的。部分参考内容来源:http://partner.henkel.com.cn/local/index.php
雪瑞夫博士表示:「道德难题在汽车特别明显,因为我们花了很多时间跟金钱在汽车上面。如此看来,2018 年或许会是人们开始反对新兴科技(emerging technology)的关键转折点,因为自驾车可能成为第一个被设计为违反驾驶意愿之下,对其生命带来威胁的消费性产品。」雪瑞夫博士还谈到,道德游戏自 2016 年开始运作以来,已纪录超过 4 千万个决策。这是有史以上最大规模的道德心理学研究。他并希望这项研究能让监管机构及汽车制造商了解,如何处理因为自动化而产生的道德难题,以及为何将大众的意见纳入思考是必要的。
原文地址:http://blog.51cto.com/13355233/2326642