Nature自然科研来源

无人驾驶汽车该救谁?全球参与者贡献4000万道德决策

本文由机器之心经授权转载自Nature自然科研(ID:Nature-Research)

《自然》本周在线发表的一篇论文The Moral Machine experiment报告了一项全球道德偏好调查,调查内容为无人驾驶汽车应如何在无法避免的事故中决定拯救哪一方。研究结果结合了全球参与者贡献的4000万个决策,或为制定社会普遍接受的人工智能(AI)道德标准提供了借鉴信息。

a. 无人驾驶汽车的全球道德偏好调查;b.  无人驾驶汽车突然发生制动故障。
坚持原路线将导致正在闯红灯的两名老年男性和一名老年女性死亡(左图)。
而转向的话将导致三名乘客死亡,包括一成年男子,成年女子和男童。
Awad et al.


无人驾驶汽车不仅要能导航路线,还要在不可避免的事故中自行应对道德困境。因此,需要制定一套道德准则来指导AI系统处理这类场景。如果无人驾驶汽车必将投入大量使用,就必须先确定社会普遍接受的道德准则。

美国麻省理工学院的Iyad Rahwan及同事搭建了一个名为“道德机器”的大型在线调查平台,用来统计全球公民的道德偏好。实验将参与者置身于一个不可避免的事故场景中,事发时一辆无人驾驶汽车正行驶在双行道上。每个场景都会让行人和乘客身处不同的危险,而汽车可以选择不变道,或急转到另一条道上 。参与者必须选择救谁并决定汽车的前进路线。这项实验共记录了约4000万个此类决定。

作者识别出了许多共同的道德偏好,诸如救多数不救少数、救年纪小的不救年纪大的、救人不救动物。作者还发现了不同文化之间的道德偏好差异。例如,来自中美洲和南美洲国家、法国以及前法属海外领地和现法属领地的参与者,呈现出先救女性和强壮个体的强烈偏好。而来自收入差距较大的国家的参与者在决定救谁时,往往会考虑其社会地位

全球道德偏好。

Awad et al.


作者最后指出,放手让汽车进行道德抉择之前需要进行全球性的对话,将我们的偏好告知那些道德算法设计公司以及执行监管的政策制定者。

本文由机器之心经授权转载自Nature自然科研。

原文链接:https://mp.weixin.qq.com/s/EuVnVxRkyLVGn9wxLSGzZg

报告全文查看:https://www.nature.com/articles/s41586-018-0637-6.epdf?shared_access_token=zcjOXeMR9keMe6Y-b1JfvtRgN0jAjWel9jnR3ZoTv0OR8PKa5Kws8ZzsJ9c7-2Qpnd077jLhfmAHc0R2yOUgPAnuXUFCHxZ40ZD3PQPtlMe8J2V7QnN3d0dPXF2mOE6rHAnP8b6sW_kegeTZ4pCV-qxHwXWHPxu2RfLXJuWqQdM%3D

产业道德报告无人驾驶
暂无评论
暂无评论~