张倩 杜伟参与

欧盟边检AI测谎仪上线了,第一天就差点让记者进了小黑屋

希腊、匈牙利、拉脱维亚的安全机构正在开展一个试点计划,利用基于人工智能技术的「虚拟警察」来判断出入境旅客是否「心怀不轨」。但记者测试后却发现,这个「虚拟警察」好像很容易「谎报军情」。

测试「虚拟警察」的记者来自美国调查新闻网站 The Intercept,他们在今年年初通过塞尔维亚-匈牙利边境时展开了测试。记者诚实地回答了所有问题,但最后却被「虚拟警察」判断为说谎,在 16 道测试题中答错了 4 道,得分为 48 分(满分 100)。评估记者测谎结果的匈牙利警察说,系统建议她接受进一步的检查,尽管这些检查后来并没有进行。

这个「虚拟警察」被称为 Silent Talker,它是一个测谎仪,用于加强欧洲的边境管理,使旅客在获准通过海关前接受测谎仪测试。

具体流程如下:

在抵达机场之前,旅客使用自己的电脑登录一个网站,上传护照照片,然后出现一位身穿蓝色海军制服的棕发虚拟警察。

这位虚拟警察会提出问题,比如「您姓什么?」、「您的国籍以及旅行目的是什么?」。旅客需要回答此类问题以及虚拟警察提出的其他问题,然后它会使用电脑摄像头扫描面部和眼球运动,以搜寻说谎的迹象。

在与虚拟警察交互的最后,系统提供给旅客一个二维码,旅客需要在抵达边境之时向警卫出示此二维码。然后警卫使用手持平板设备扫描二维码,提取指纹,重新审核虚拟警察捕捉到的面部图像,以查看是否与护照一致。警卫平板设备上会显示分数(总分 100 分),从而获知虚拟警察对旅客是否说谎的判断。

如果旅客被判定试图欺骗系统,则将其分类为「高度危险」或「中度危险」,这将取决于该旅客被发现问题回答错误的次数。

那些被认定危险的旅客可能会被拒绝入关,尽管在大多数情况下,他们无法知道虚拟警察测试在决策中是否起到了作用。此外,虚拟警察的测试结果通常不会透露给旅客。

虚拟警察的前世今生

虚拟警察是 iBorderCtrl 项目的产物,该项目的参与者包括匈牙利、拉脱维亚和希腊的安全机构。目前,测谎仪测试是自愿的,实验计划也将于 8 月结束。如果该计划取得成功,欧盟其他国家可能也会展开相应项目。该项目的发展潜力也在欧盟大陆引起了争议,媒体争相报道。

目前,欧盟的一个研究计划已经向 iBorderCtrl 项目投入了 450 万欧元,并由 13 个合作伙伴组成的财团进行管理,包括希腊安全研究中心、德国汉诺威莱布尼茨大学以及匈牙利 BioSec、西班牙 Everis 和波兰 JAS 等技术与安全公司。

IBorderCtrl 测谎系统是由英国曼彻斯特城市大学的研究人员开发出来的,他们表示,该技术可以在人们在电脑上回答问题时捕捉到「微姿态」,从而对面部表情、眼球运动和姿势进行分析。此外,他们还认为这种测谎系统代表了边境安全的未来发展方向。

在 2018 年 6 月发表的一篇论文中,他们就表示这种虚拟警察「非常适合在入境海关对话中检测出旅客是否说谎,因为它能够有效地捕捉到旅客回话中涵盖的信息。」

论文地址:https://www.researchgate.net/publication/328399576_Intelligent_Deception_Detection_through_Machine_Based_Interviewing

然而,一些学者对 IBorderCtrl 测谎系统的价值提出了质疑,认为它依赖伪科学来判定旅客是否诚实。

质疑声不断的测谎系统

测谎依据站不住脚

英国德比大学(University of Derby)刑事侦察学教授 Ray Bull 曾协助英国警方提升面谈技巧,精通测谎技术。他认为,iBorderCtrl 项目是「不可信的」,因为没有证据表明监测人们的面部微姿态是判断他们是否说谎的准确方法。

Bull 表示:「iBorderCtrl 测谎系统的研发人员在欺骗大家,他们说自己这种技术非常有效,但其实浪费了大量金钱。该技术对人们在诚实和欺骗时的行为产生了根本性误解。」

技术不够透明

IBorderCtrl 是一种辅助预筛查流程的技术。但是主张透明度的活动人士表示,在获取更多相关技术信息(如决策所使用的算法)之前不应推广该项目。

今年早些时候,米兰赫尔墨斯透明度与数字人权中心(Milan-based Hermes Center for Transparency and Digital Human Rights)的研究人员利用信息自由法获取了 IBorderCtrl 测谎系统的内部文件,包含数百页内容。但是,文件内容遭到了大量的修改,并且很多页面完全被涂抹掉了。

赫尔墨斯中心的研究人员 Riccardo Coluccini 表示:「通过隐瞒处理这些问题的文件来试图抑制对该系统的讨论,这种做法真是太可怕了。了解技术背后的资助流程非常有必要。这些内部文件里到底写了些什么?这些财团又如何证明使用这种伪科学技术的合理性呢?」

系统存在种族偏见

曼彻斯特的研究人员也对 iBorderCtrl 系统进行了研究,他们测试了 32 个人,结果显示该系统的准确率仅为 75%。但他们注意到,参与测试的人员在种族和性别上分布不均衡,其中亚裔或阿拉伯裔参与者人数少于欧洲白人,并且女性少于男性。

欧盟数据保护监管机构负责人 Giovanni Buttarelli 对此表示担忧,认为 iBorderCtrl 系统可能会根据人们的种族出身而歧视他们。

iBorderCtrl 系统发言人拒绝回答有关种族歧视的问题。该项目的一个网站承认「该测谎系统将影响到旅客的基本权利,但目前测试是自愿的,因此不会出现歧视、人格尊严等问题。」

学界对情感分析工具可靠性的质疑

用 AI 进行情感识别是该领域的一大研究热点,但正如上述测谎仪所揭露的一样,这项技术好像并没有那么靠谱。

近日,来自美国东北大学心理学系、加州理工学院人文社会科学院的研究者对利用 AI 技术进行情感识别的可靠性提出了质疑。他们对愤怒、厌恶、恐惧、快乐、悲伤和惊讶等六种最流行的情绪类别进行了研究,指出现有的情感识别工具用于判断情感类型的依据还太过简单、宽泛,不适合大规模利用。

这份研究表明,人类情感的表达方式具有多样性,因此仅仅根据一组面部表情来推断情感类型很难得出可靠的结论。「数据表明,人们在生气时只有不到 30% 的时间会皱眉,」其中一位研究者表示,「因此皱眉并不等于生气,只是生气的一种表现。」也就是说,人们在超过 70% 的情况下生气是不皱眉的,更重要的是,人们在不生气时反而经常皱眉。

此外,不同文化背景、情境下的人表达情感的方式,甚至不同的人表达同一情绪的方式也不尽相同。而且,相似的面部表情可能会表达多种情感。

当然,这篇论文并没有否认典型面部表情的存在,而是反对利用面部表情进行「可靠」的情感识别。

之前很多研究认为某些面部表情与情绪之间存在很强的关联,但它们往往存在方法上的缺陷。例如,这些研究以实验参与者做出的夸张表情作为某种情感表现的研究起点。然后,他们要求参与测试的对象对这些表情打上标签,由于可选择的表情范围非常有限,所以迫使他们达成某种共识。

研究者表示,人类理解情绪的方式比这要复杂得多。「我们生气的时候可能会大吼大叫,可能会哭,有时还会大笑,或者只是静静地思考如何报复敌人」。

然而,那些销售情感分析工具的公司却很少考虑这些微妙之处。以微软的算法为例,该公司表示,他们的算法可以「根据通用的面部表情识别出 8 种核心情感状态……」这项研究反驳的正是这种论调。

当然,这种批评也不是最近才提出的。论文作者及其他研究者早在数年前就开始发出警告,称这些情感识别模型过于简单。

面对这些质疑,那些售卖情感分析工具的公司表示,他们的分析依据的不只是面部表情,还有很多其他信号。目前,一些比较领先的公司也尝试在情感分析中加入语音、步态、眼动等信号,但难点在于他们是如何平衡这些信号。

这种不成熟的情感分析工具的使用也很容易被人利用。就像我们知道点赞某些图片会影响我们的广告推送一样,我们也可以根据对这些工具的了解而刻意做出某种表情。

研究者表示,他们的研究最想表达的一点是,我们需要以一种更加复杂的方式来识别情感。情感的表达非常多样、复杂而且有一定的语境。她将这种思维的转变与达尔文的研究进行类比,「达尔文认识到,一个物种的生物学范畴并不是固定不变的,而是由高度变化的个体组成的。」研究者表示,「情感领域也是如此。」


参考链接:

https://theintercept.com/2019/07/26/europe-border-control-ai-lie-detector/

https://www.theverge.com/2019/7/25/8929793/emotion-recognition-analysis-ai-machine-learning-facial-expression-review

入门自然语言处理人工智能安全智能物联网计算机视觉情感识别人脸识别
11
和那个deep nude滥用的差不多啊