药明康德AI作者

《自然》:如何教AI作出道德抉择?这项万人研究给了我们答案

当AI面临“电车难题”,我们该如何教它做出抉择?

药明康德AI/报道

一辆有轨电车正在铁轨上行驶,在列车的前方有五个人,他们已经无法避开即将到来的撞击。拯救这些人的唯一方法就是按下列车上的一个按钮,让列车驶向另一条轨道,但是这样一来就会撞上另外那条轨道上的一个人。面对这样的选择,你是会选择救一个人,还是让电车改变轨道救下五个人呢?

上面的这个场景就是著名的“电车难题”。过去的研究中,研究人员会设置一些模拟场景,让参与测试的人进行选择。但是,上面描述的这一场景似乎在人们的现实生活中并不会真实发生。如今,随着人工智能技术的发展,无人驾驶技术已经日趋成熟。今年3月,Uber公司发生的全球首起无人驾驶致死事件,引发了大众对于AI和伦理道德方面的思考。而未来AI在驾驶汽车前进的过程中,很有可能会真的面对这种无可避免的事故场景。在这个时候,如何制定一套大众社会普遍接受的道德标准,来指导AI系统对这类场景进行处理呢

随着自动驾驶技术的不断进步,其在道德伦理方面也引起了人们的思考(图片来源:123RF)

今天《自然》上在线发表的一篇论文或许可以给我们一些启示:一群来自MIT的研究人员完成了一项万人全球道德偏好调查,调查内容为无人驾驶汽车应如何在无法避免的事故中决定拯救哪一方

这项研究的负责人Iyad Rahwan博士及其团队搭建了一个名为“Moral Machine”的大型在线调查平台,用来统计全球公民的道德偏好。每个实验参与者都将置身于一个不可避免的事故场景中,事发时一辆无人驾驶汽车正行驶在双行道上。每个场景都会让行人和乘客身处不同的危险,而汽车可以选择变道,或者维持当前方向行驶,但是不管哪个决定都将导致某一方死亡。参与者必须选择救谁并决定汽车的前进路线。共有来自233个国家的约4000万人参与了此次调查。

在这个场景中,你会选择救下人行道上的人,还是汽车中的人呢?(图片来源:《自然》)

这项调查重点关注了九组对立的选择因素,分别是:救人还是救动物、保持当前行驶方向还是变道、救乘客还是救行人、救多数人还是救少数人、救男性还是救女性、救年轻人还是救老年人、救遵守交通规则还是横穿马路的行人、救健康程度较高还是较低的人、以及救社会地位较高还是较低的人。同时,某些情景中还包括了罪犯、医生或孕妇等其他人物,这些人物与上面九个因素中的任何一个都没有联系。

研究结果揭示了很多共同的道德偏好,如大多数人会倾向于救多数而不救少数,救年轻人而不救老年人,救人而不是动物。同时,这项研究还发现了不同文化之间的道德偏好差异。例如,来自中美洲和南美洲国家,以及法国等地的参与者会呈现出先救女性和强壮个体的强烈偏好。而来自收入差距较大的国家的参与者在决定救谁时,往往会考虑其社会地位。

研究结果反映了人们对于不同因素做出的选择偏好(图片来源:《自然》)

研究人员在论文中写道,我们在为人工智能建立广泛的道德准则方面,会经常呼吁机器伦理应与人的价值观相一致,但是很少有人能意识到,人类自身在道德领域也会经历内在冲突、人际分歧和文化差异。在放手让汽车进行道德抉择之前,我们需要进行一场全球性的对话,将我们的偏好告知那些道德算法设计公司以及执行监管的政策制定者。

尽管如此,在这项大型研究中,世界上大部分地区参与者能够表现出相对一致的选择,这为我们在未来某一天达成统一的机器道德伦理标准带来了希望。

参考资料:

[1] Awad, et al., The Moral Machine experiment. (2018). Nature, DOI: https://doi.org/10.1038/s41586-018-0637-6

药明康德AI
药明康德AI

药明康德微信团队专业打造。当人工智能遇上大健康,带你看全AI时代的智慧之光。

专栏二维码
理论自动驾驶算法机器学习MIT电车难题
1
相关数据
自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

推荐文章
暂无评论
暂无评论~