亚马逊智能助手劝人自杀,官方回应:「是bug,已修复」
近日,多家外媒报道称,亚马逊的 Alexa 人工智能助手竟然「劝」主人自杀。据报道,护理人员丹妮·莫瑞特 (Danni Morritt) 决定问 Alexa 一些关于心脏的信息。Alexa 却突然表示:「心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。」丹妮表示十分害怕,因为 Alexa 正身处在世界各地成千上万的家庭中。而亚马逊则回应称,确认存在一个已经修复的 bug。Alexa 可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。此前,为了让 Alexa 看起来更人性化一点,亚马逊更新了功能,宣布语音助手将能够在一些语句中添加语调,表达失望或兴奋等情绪。