Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

打开空战的潘多拉魔盒

图片

空战的潘多拉的盒子已经打开。

军方的理想是借助AI,将飞行员变更为「战斗经理」,管理一支无人机战斗小分队。目前,人类已经到达的地方是:在这个有限区域、特定场景中,我们拥有了有效的人工智能。但距离「战斗经理」的梦想还存在不少挑战,比如,高空瞄准、AI对不确定情况的处理,更为棘手的是飞行员对系统的信任。

不过,所谓战斗经理的构想并不会持续太久。一个很现实的问题是,对于一个能够提供致命武力的系统,尤其是一个以机器速度移动的系统,我们需要多少自主权? 这就像让人类去控制汽车的安全气囊是否应该打开,会从根本上让这一发明失去意义。

尽管人类会因此面临道德伦理问题,但这些担忧将被人工智能系统所效力的残酷战争效率所推翻。无论有没有军事参与,人工智能都在迅速发展,更何况,没有一个国家可以信任他们的对手。这就像汤姆·莱勒(Tom Lehrer)歌曲中的一句名言:「一旦火箭升起,谁在乎它们从哪里落下?那不是我的任务。」


作者 | Sue Halpern

来源 | 纽约客

编译 | 吴昕


去年五月的一个晴朗早晨,一名飞行员从尼亚加拉瀑布国际机场起飞,前往安大略湖上空的军事空域。这架带有美国空军徽章的飞机是一架改装过的捷克斯洛伐克喷气式飞机 L-39 信天翁,由一家私人国防承包商购买。驾驶舱前面的舱口里布满传感器和处理器,用以记录飞机性能。飞行员逆时针绕湖飞行了两个小时,DARPA 签约地面工程师设计了每一次转弯、俯仰和翻滚,试图完成一件前无古人的事情:设计一架无需人类飞行员即可参与空战的飞机。

图片L-39信天翁是由捷克斯洛伐克研发生产的一款高性能喷气教练机,也是首款使用涡轮风扇发动机的教练机,并于后来升级为L-59超级信天翁和L-139。维基百科显示,L-39是最广泛使用的喷气教练机之一,能胜任多种角色,包括执行低强度攻击任务或进行基础/高级飞行训练。

DARPA 「空战演进」计划(简称ACE )是五角大楼将人工智能纳入战争的 600 多个项目之一,而这次演习是ACE计划的早期步骤。今年,五角大楼计划在人工智能相关技术上投入近 10 亿美元。海军正在建造可以在海上停留数月的无人船,陆军正在开发机器人战车。人工智能被用于改善供应物流、情报收集以及军方所谓的「战场物联网」,包括可穿戴技术、传感器和辅助机器人。

算法已经擅长驾驶飞机。1914年,第一个飞行自动驾驶系统首次亮相,它将陀螺仪连接到机翼和机尾,当时距离莱特兄弟飞行大约过去十年。目前一些军事武器,如水下探雷器和激光制导炸弹,一旦被发射,也可自动运行。但很少有战争像空战那样复杂。「空战可能是航空界最具活力的飞行项目,句号。」正在为 DARPA 改装 L-39 的Calspan 公司飞行研究副总裁 Paul Schifferle说。

最终,人工智能驾驶的战斗机转弯更紧凑,也敢冒更大风险以更好地进行攻击。但是,ACE 计划的目标是改变飞行员的角色,而不是完全取消它。DARPA 的设想是人工智能将与飞行员合作,飞行员继续保持「控制(in the loop )」,监视人工智能并在必要时干预。DARPA 机构战略技术办公室(Strategic Technology Office)称,具有自主功能的战斗机将使飞行员成为「战斗经理」,指挥无人机小组「就像足球教练挑选队员,然后让他们上场比赛。」ACE 计划也是更广泛努力的一部分,这一努力旨在将部队「分解」成更小、也更经济的单位。新美国安全中心(Center for a New American Security)国防项目主任Stacie Pettyjohn 告诉我。换句话说,更少的人类和更多可消耗的机器,DARPA称之为「马赛克战争」。空战中,「这些小得多的自主飞机能以意想不到的方式组合在一起,靠复杂性致胜。」Pettyjohn说,「其中任何一个被击落,也没什么大不了的。」

L-39在安大略湖上空总共飞行了20次,每次都给工程师和计算机科学家提供了构建飞行动力学模型所需信息。与自动驾驶汽车一样,飞机通过传感器识别外部世界与地图编码信息之间的差异。不过,空中格斗算法必须同时考虑环境和飞机。比如不同高度、角度的飞行,炎热和寒冷环境下的飞行,或者是否携带额外油箱或导弹。

「大多数情况下,飞机都是直线飞行、水平飞行,」ACE项目科学顾问电气工程师 Phil Chu 解释说。「但进行格斗时,你必须弄清楚,如果倾斜角度为30度,上升角度为20度,我要拉多少杆才能达到倾斜角度40度,上升角度10度?」而且飞行是三维的,所以速度更重要。「如果飞得很慢,你把操纵杆朝一个方向移动,它就会有一定的转弯。如果飞得非常快,你以同样方式移动操纵杆,会得到截然不同的反应。」

如果 ACE能按计划进行,四架人工智能 L -39将于2024年在安大略湖上空加入一场空中格斗。DARPA 也为此招募了36个学术研究中心和私人公司,每个机构都在研究两个问题中的一个:如何让飞机自己飞行和战斗,以及如何让飞行员足够信任人工智能并愿意使用它。「如果你没有信任,人类就会一直看着人工智能,并说,『哦,我必须接管。』」奥巴马政府时期的国防部副部长Robert Work告诉我, 他曾推动五角大楼开发下一代技术。

没有人能保证 ACE 计划会成功。DARPA的项目是有时间限制的实验,通常3到5年。「一个典型的技术成熟周期包括『爬行、行走、奔跑』,我们正处在『行走』阶段。」 Schifferle 告诉我。尽管如此,越来越多的年轻飞行员似乎有一天会想知道,他们的战斗机是如何获得查克·耶格尔的战斗技能的。那时,他们会被告知,一架翻新的苏联时代战机在安大略湖上空飞行,飞行员是老派的,某种程度上,作为对手的他们正在为自己写讣告。

图片
「Chuck」Yeager,查克·耶格尔,退役美国空军准将,持有王牌飞行员(Ace)称号的二战空战英雄,美国空军与NASA试飞员,第一个突破音障的人类(虽然纪录有点争议),被认为是20世纪人类航空史上最重要的传奇人物之一。

为了设计一种可以格斗的算法,DARPA 选择了八家软件开发公司参加 AlphaDogfight 试验,这项人工智能竞赛于 2020 年 8 月的三天公开比赛中达到高潮。奖品是丹·「动物」·贾沃塞克上校(Col.Dan「Animal」Javorsek)佩戴的飞行头盔,去年回到空军之前,他一直负责该项目。

比赛本应在内华达州内利斯空军基地举行,还会有现场观众。但疫情让比赛降级为一场在线活动,由约翰霍·普金斯大学应用物理实验室主办,并通过一个名为「darpatv」的Youtube频道进行直播。F-16 飞行员Justin (Glock) Mock进行了详细解说。有一次,他告诉大约五千名观众,目标很简单:「杀死对手,活下去。」

每个团队对其人工智能代理(算法)采取了略有不同的方法。EpiSci 是一家总部位于加利福尼亚州波威的国防承包商,退休的空军试飞员 Chris Gentile 领导了研究工作。他们将问题分解成几个部分,并利用这位退休飞行员的专业知识逐一解决。「我们从最低的水平开始,」Gentile 告诉我。「怎么控制飞机?」「如何操纵它,引导它左右移动,一直到我们应该使用什么战术?」

位于加利福尼亚州太平洋的 PhysicsAI 派出了一个四人小队,他们对空战几乎一无所知。他们使用神经网络方法,使系统能够学习成功格斗的模式,找到数学上得出最佳结果的最大概率。「就像打篮球的同时下棋,」PhysicsAI 的首席研究员 John Pierre 说。「做出瞬间决定的同时进行拍摄,还需要以人类飞行员可以解释的方式来完成。」

每场比赛中,人工智能化身硬币大小飞机,模仿 F-16 的飞行动力学在屏幕上庄严移动着。这并不完全是《壮志凌云》,但算法正在实现一年前不可能完成的事情:交互并实时调整策略。当两名「特工」较量时,Mock 将这一行动比作「电话亭里的斗殴」。

第三天决胜局由总部位于弗吉尼亚州的精品软件公司Heron Systems开发的人工智能代理 Falco 对决美国最大国防承包商洛克希德·马丁的人工智能代理。「小人物」 PK 「大企业」,尽管「小人物」的人工智能代理迭代次数相当于在31年中,每天都在接受训练,已经和一名职业飞行员训练频率差不多,但比赛力量还是悬殊。经过几轮激烈较量,Falco 取得胜利。最后一场比赛由一位经验丰富的 F-16 飞行员与 Falco 对决。

身穿橄榄绿飞行服的飞行员坐在高背游戏椅上,他的脸被VR头盔遮住。人们只知道他的代号是「肉肠(Banger)」。(为了「行动安全」,他没有透露自己的身份。) 他之前曾在美国空军基地与团队一起接受过训练,学习如何使用控制装置来引导飞机,如何使用VR头盔来跟踪对手的攻击方向。

观众可以通过分屏看到「肉肠」从驾驶舱看到的东西。另一个屏幕上提供了这场比赛的最佳观看视角,黄色代表「肉肠」,绿色代表 Falco。大约一分钟后,每个团队都积极翻转飞机,「肉肠」从1万英尺高度俯冲下来,避开了人工智能。Falco 过来了,几个漂亮的出击,「肉肠」只剩四条命。

最后,「肉肠」没能在一场小冲突中幸存下来。「我认为过去几年已经证明,技术比人类思考更快,在一个精确的原始环境中,反应也更精准、更快。」 他还认为,人工智能可能会采取一些人类飞行员被要求避免的战术,例如距离敌机太近,以对人体造成负担的速度移动。「我可不愿意把飞机置于可能遭遇其他物体的位置,」他说。「但人工智能会利用这一点。」

Mock 似乎对结果很满意。「你可以看着这个,然后说,『好吧,人工智能得到 5 分,人类得到了 0 分,』」他告诉观众。「从战斗机飞行员角度来看,我们相信什么是有效的,我们看到的是,在这个有限区域、特定场景中,我们拥有了有效的人工智能。」(这次测试比赛的 YouTube 视频此后获得了 50 万次观看量。)

Heron公司负责人 Brett Darcey 告诉我,该公司已经使用 Falco 驾驶无人机完成了 74 次零坠机飞行。但目前尚不清楚该技术将如何应对现实世界条件的无限可能性。人脑的处理速度比计算机慢,但它具有认知灵活性,能适应难以想象环境,到目前为止,人工智能还做不到这一点。「面对不确定性,人类能够借鉴他们的经验并采取合理的行动。尤其是在战斗情况下,不确定性总是存在的。」心理学家、ACE 项目的另一位科学顾问 Anna Skinner 告诉我。

5月初,我参观了爱荷华大学的Operator Performance Lab实验室(以下简称OPL实验室),ACE 项目的成员们在那里集合进行一场展示。这座实验室是由出生于瑞士的工业和系统工程教授 Tom Schnell 创建。尽管 Schell 最初专业是地面交通,但他会在业余时间驾驶特技飞机在爱荷华州的玉米田上空盘旋、翻转。九十年代后期,一家豪华汽车公司——Schell 不愿透露是哪家——要求他开发一种方法来衡量人们对驾驶公司车辆的喜爱程度。于是,Schnell 将传感器安装在驾驶员的脸上,用以检测嘴巴和眼睛周围小肌肉运动,这可能表示微笑或皱眉,心电图则可以监测他们的心脏。「我告诉他们,如果要做这项工作,他们必须送我一辆有趣的汽车,」谈及他的早期客户,Schell 说。「他们做到了。」

Schnell 很快发现,每个传感器都有自己专有的数据收集系统,几乎不可能同时分析所有信息。于是,他建立了一个通用框架,将其命名为认知评估工具集,并开始收集操作各种机器的人的生理数据。「他们可能是火车工程师、直升机飞行员或驾驶汽车的人,」他说。面部传感器提供一组数据点,分析皮肤电反应的设备也是如此——受试者出汗了多少。另一个工具研究了血液氧化水平,代表心理工作负荷。

2004 年,Schnell 说服系主任购买了 OPL 实验室的第一架飞机,即单引擎 Beechcraft Bonanza。几年后,他又获得了一架喷气式飞机,因为商业航空公司和空军请他对飞行员进行研究。「我们在空间定向障碍上做了很多研究,」Schnell 说。包括让飞行员在进行战术动作时闭上眼睛,睁眼后尝试直线飞行。到2019 年 DARPA 提出 ACE 计划提案时,Schnell 的实验室已有十多年飞行员生理体验方面的研究经验。

说服飞行员交出控制权,可能比开发可以空战的人工智能更加难以捉摸。「这可能是我们试图解决的最大挑战,」现任ACE项目经理Ryan Hefron告诉我。Hefron ,一名 38 岁的中校,拥有计算机科学博士学位,他于 2021 年从空军试飞员学校来到DARPA ,并在那里担任教官。他举了个例子。「Auto-GCAS」是一种自动地面防撞系统,如果飞机即将坠毁,该系统会拉起控制装置,防止机毁人亡。测试期间,系统有时会无缘由地突然进行 Hefron 所谓的「令人讨厌的飞升」。该系统已经挽救至少 11 人的生命,但由于早期曾遭遇挫折,多年来,试飞员一直对它保持警惕。

「军队里有一种说法,」佛罗里达大学心理学教授Peter Hancock 告诉我,他主要研究信任对技术采用影响的。「信任,百年累之,一朝毁之。」这不仅仅是战争中才有的问题。在美国汽车协会最近进行的一项调查中,大约 80% 的受访者表示他们对自动驾驶汽车的想法并不满意。「大多数司机说,他们希望当前系统能够更好地工作,然后才能信任完全自动驾驶系统。」AAA 汽车工程总监Greg Brannon告诉我。「尽管技术取得了很大进步,但这个百分比并没有太大变化,这非常令人震惊。」

为了评估信任,心理学家通常会进行调查。「以前没有人提出过客观的信任衡量标准,」心理学家 Skinner 说。DARPA 聘请了位于安娜堡的 AI 研发公司 SoarTech 建立「信任模型」,旨在利用 OPL 实验室认知评估工具集的硬数据,验证自我报告的信任。「这就是做好科学研究的方式,」Schnell告诉我。「把最好的积木放在一起,回答非常困难的问题。DARPA 实际上是站出来说,我们想知道:『你相信航空电子设备吗?』」

爱荷华市市政机场,OPL 实验室的一个机库里堆满了 Schnell 购买并改装的二手飞机:两架 L-29 Delfin 是 L-39 的小表亲,漆成光滑的鹰眼黄色;一架笨重的苏联直升机,以大约一辆凯迪拉克凯雷德的价格购买,升级了Schnell 自己建造的全彩色夜视系统。机库尽头有一架 737 喷气式飞机的模拟驾驶舱,大小相当于一间单间公寓。

当天,一名空军国民警卫队飞行员被借给 OPL实验室,他屈尊进入另一个模拟器——一个被Schnell称为「浴缸」的矩形金属外壳。Schnell 将他连接到心电图引线上,以收集一些基线数据。直到当天早上简报会,飞行员也仅知道自己将参加一个DARPA研究项目。即使当他调整 VR 头盔并摆弄着复制的 F-16 控制装置时,也只被告知飞机将由人工智能控制,自己同时要在屏幕上玩一个简单的视频游戏。

游戏模拟了飞行员未来将要进行的战斗管理任务;为了获胜,飞行员的八架蓝色飞机不得不击落八架红色敌机。他头盔内的眼动仪会测量他何时以及多久抬头看看人工智能在做什么,这可以被认为是不信任的表达。他不知道有些模拟冲突是为他赢得胜利而准备的,而另一些则是让他和他的飞机处于危险之中。但是,如果他觉得 AI 即将做一些危险的事情,他可以选择「离开」来停止参与。这也表明他对AI 缺乏信任。

这个创意最终是为飞行员提供更多关于人工智能下一步行动的信息,以激发适当的信任。「我们正在系统中构建视觉和其他界面,让飞行员知道人工智能在做什么,给他足够的视角、信息去理解是否应该信任。」SoarTech 的高级科学家 Glenn Taylor 告诉我。研究人员称这种关系为「校准」信任。「如果我们可以向飞行员展示人工智能在接下来的四秒内将要做什么,那将是一个很长的时间。」ACE 项目的一位科学顾问 Phil Chu告诉我。

信任也至关重要,因为飞机以每小时 500 英里的速度飞行,算法并不总是能够让飞行员了解情况。佛罗里达大学教授Hancock 将反应时间的差异称为「时间失调(temporal dissonance)」。就像气囊在几毫秒内展开,低于人类感知的阈值。「一旦你把我放在那个控制环节当中,」他说,「你就破坏了安全气囊的全部目的,即几乎瞬间充气。」

在 OPL 的「浴缸」中,一台计算机转播了飞行员在护目镜中看到的内容。当他把头转向右边时,一个翅膀映入眼帘。当他低头时,他可以看到农田。驾驶舱前部的雷达屏幕一直在跟踪对手,在第一次小规模冲突中,对手迅速获得优势,从后面冲向飞行员并准备射击。「不信任,」飞行员喊道,小规模冲突结束。电脑重置。帮助设计实验的 Schnell 的一名研究生从三开始倒数,然后叫「Hack」,开始下一场比赛。

四十分钟后,当飞行员离开模拟器时,与 SoarTech 合作的研究员 Katharine Woodruff 迎向他。Woodruff问他一个小事故,尽管没有迫在眉睫的危险,但他还是选择不信任。「我有两个可以做的决定,」他说。「让它驾驭,看看会发生什么或选择不信任。」片刻后,他补充道:「我估计对手开始转向我了。所以,我选择不信任。」

Woodruff 告诉我,大多数情况下,研究中的飞行员在人工智能表现得当时信任它,在它不正常时接管它。也有一些例外:最近从飞机上弹出的一名飞行员对这项技术深表怀疑。我观察到的这位 30 岁飞行员认为自主性「很酷」,但即使他的飞机有可能获得良好的进攻角度,他还是选择「离开」。「我想弄清楚与人工智能合作的边界,」他告诉Woodruff。「什么过于保守,什么会让我丧命。然后找到那个快乐的中间位置。」

Schnell的研究生(因为在军队服役,所以不能透露姓名)过来听了汇报。「你将是我们需要影响的人的完美例子,因为——我并无意冒犯——你完全违反了实验的构想。」他告诉飞行员。「你决定不让人工智能做它应该做的工作,即使它实际上表现得很好,不会让你被杀。如果我们想让你在三十年后成为一名战斗经理,我们需要改变这种行为。」

2017年,专注于「保持人工智能有益」的倡导组织Future of Life Institute发布了短片《机器人屠杀》(Slaughterbots),埃隆·马斯克是该组织顾问委员会成员之一。这部短片想象了一个世界,不同政见者、大学生和国会议员成为一种四旋翼飞行武器的屠杀对象,武器大小和智能手机差不多。「核能已经过时了,」在屠杀机器人产品发布会上,一个像史蒂夫•乔布斯的角色对热情观众说。「干掉你的整个敌人,几乎没有风险」。

视频在 YouTube 上已被观看超过 300 万次,结尾处,伯克利计算机科学家 Stuart Russell 对着镜头说道:「让机器选择杀死人类将对我们的安全和自由造成毁灭性打击。」 Russell 以及马斯克、斯蒂芬霍金、诺姆·乔姆斯基等一群著名学者和科技高管签署了一封公开信,呼吁禁止「超出有意义的人类控制的进攻性自主武器。」

然而,人工智能已经在推动一场全球军备竞赛。2020 年,全球军用人工智能支出估计超过 60 亿美元,预计到 2025 年将翻一番。俄罗斯正在开发无人驾驶车辆,包括机器人坦克和监视系统。去年,据报道,利比亚发射了一种似乎配备了「实时图像处理」功能的自主无人机,用于识别和杀死敌方战斗机。前国防部副部长罗伯特·沃克告诉我,情报表明,中国已经将退役的战斗机变成了蜂群式自主自杀式无人机。「这成为一种全新武器,非常难以防御,」他说。

美国也在测试蜂群无人机的使用。在去年四月的一次实验中,一群无人机袭击了加利福尼亚海岸附近的一艘海军舰艇。10 月,空军的Skyborg 计划在实况飞行中测试了两架无人机。该计划旨在制造与 F-35 飞行员并肩作战的自动驾驶飞机,Skyborg 无人机将能够探测地面和空中威胁,识别合适的「杀伤」目标,实现最佳打击。正如空军所说,「使用杀伤力」的实际决定权将掌握在人类飞行员的手中。但在 2020 年,空军首席科学家Richard Joseph 警告说,「我们还有一些其他问题要回答。对于一个能够提供致命武力的系统,尤其是一个以机器速度移动的系统,我们需要多少自主权?」

在去年 4 月发表的一篇论文中,罗伯特·沃克写道,支持人工智能的系统「可能有助于减轻目标识别错误,这也是卷入意外交战的最大原因。」美国军方一再承诺,改进技术将增强瞄准能力,不过,结果好坏参半。2003 年,在伊拉克战争期间,一种早期自主武器爱国者导弹无意中击落了一架英国战斗机,造成两名飞行员和一架海军飞机死亡,该飞行员也遇难。随后五角大楼的一份报告得出结论,人类操作员给导弹系统提供了过多自主权。在最近对1300份有关中东平民伤亡的机密报告的研究中,《泰晤士报》将美国空战描述为「与美国政府通过全能无人机和精确炸弹发动的战争形象,形成鲜明对比。」

新美国安全中心的Pettyjohn告诉我,军方目前正在开发自主系统来帮助识别目标。「这是人工智能仍在努力解决的问题之一,」她说。「这仍然是一件非常困难的事情——在十、二、三万英尺的高空进行辨别。」2018 年,麻省理工学院和斯坦福大学的研究人员发现,三种流行的人工智能面部识别系统通常无法识别深色皮肤女性的性别。两年后,国会研究服务处的一份报告指出,「这可能会对军事环境中的人工智能应用产生重大影响,特别是如果这种偏见仍未被发现并被纳入具有致命影响的系统中。」

Stop Killer Robots 是一个由 180 多个非政府组织组成的联盟,包括大赦国际、人权观察和世界基督教协进会,它敦促各国通过法律,控制致命自主武器的使用。而美国并不在迄今为止已签署法令的近七十个国家当中。「这不仅仅是禁止某种特定武器,就像我们禁止地雷或化学武器一样,」哈佛法学院人权法讲师、人权观察武器部高级研究员Bonnie Docherty说。「这是为了抢占一项技术的发展,这种技术可能会以一种非常可怕的方式改变战争进行方式。」

国防部在2012年确立的关于致命自主武器的立场中,需要将人类决策者置于一个适度掌控的位置上。兰德公司高级国防分析师David Ochmanek告诉我,「它实际上并没有禁止自主武器的开发。」2012年的指令是兰德公司在五角大楼的前办公室起草的。相反,他补充说,「它制定了一系列审查和保障程序,指挥官必须能够进行干预,开启自主性,并在需要时关闭它。」

Ochmanek认为,自主武器的发展是一种威慑,尤其是针对大规模侵略行为,如俄罗斯入侵北约领土。「不同形式的自治武器能让我们有信心打败这种入侵吗?」他说。「答案是肯定的。」

去年春天,当 L-39 飞越安大略湖时,ACE计划的科学家和工程师因定期季度会议而聚在一起。EpiSci 公司 Chris Gentile 在一次会议上强调,该计划并不是在制造致命自主武器:「我们正在构建工具,使飞行员能够更有效地执行决策。」但是,随着人工智能加快决策速度,最终的问题可能是驾驶舱里为什么还要有人。「国防部会告诉你,他们不会拥有完全自主的系统,」Pettyjohn告诉我。「但我很难想象,当一切都以比对手更快地做出决策为前提时,人类如何进行实际上的控制?

9月下旬,我在 OPL 实验室观察了另一项信任实验。一天大部分时间里,一名经验丰富的飞行员戴着VR头盔坐在一架已经改造为飞行模拟器的L-29 驾驶舱内。在人工智能进行一系列空中混战时,这名飞行员扮演管理角色,在被要求记录生物特征和飞行数据的同时评估对人工智能的信任度。不过这一次,他没有使用预先编写好的场景,而是与Heron Systems、PhysicsAI 和 EpiSci 开发的三个「幸存者」人工智能代理进行格斗。

一天快结束时,实验参数发生变化。飞行员被允许放弃人工智能,手动驾驶飞机,当他觉得安全时,可以将控制权交还给人工智能。根据 SoarTech 的高级科学家 Lauren Reinerman-Jones 的说法,研究人员的期望是,如果飞行员输掉了第一次混战,还需要再多几次才能恢复信任。但如果他赢了第一场比赛,他对人工智能的信任就会延续到后续的场景中。如果他输掉了最后的混战,信任度就会降低,但程度会更小。

飞机旁边放置了四台电脑。其中一份记录了飞行员在头盔中看到的情况。另一幅图显示了他的生理反应,这些反应被转换成不同类型的信任处理,每一种都用不同颜色的线表示。Reinerman-Jones解释说,一条棕色的线显示在其余的上面,将数据聚合成她和她的同事正在开发的信任模型的粗略渲染。Woodruff 坐在旁边,膝盖上放着一台电脑,手里拿着一台录音机。每隔一分钟左右,她就会让飞行员评估一下他对人工智能的信任程度。他几乎总是说,信任度很高。

但在汇报过程中,他表达了对实验的一些失望。在一次混战中,他的飞机和对手互相追逐,屏幕上看起来就像水在排水沟里盘旋。飞行员告诉Woodruff ,尽管他让人工智能继续战斗,「我知道它短期内不会干掉这家伙。在现实生活中,如果你继续这样走下去,要么就会没油,要么就会有坏人从后面追上来杀了你。」在实际战斗中,他会接受更多的风险,以获得更好的进攻角度。「我的意思是,人工智能应该比我聪明得多,」他说。「所以,如果我向外看,认为可以在这里获得一些优势,而人工智能没有,我必须开始问为什么。」

这名飞行员的批评反映了目前人工智能代理的不成熟,如果他们要变得足够老练,对付得了真正的对手,就需要更多训练。这也让人想起一年前Justin Mock 在AlphaDogfight 测试赛上说过的话:战斗机飞行员相信管用的东西。

从那以后,这些团队一直在开发和测试能够同时对付两个对手的人工智能代理,这是一项复杂得多的任务。他们还开始开发能够推进实时飞行的工具。第一步是将L-39的飞行动力学集成到空战算法中,并在无人机上进行测试。在接下来的几个月里,,将把人工智能代理放入机载模拟器中,这样飞行员可以体验到重力并审视这将如何影响到对人工智能的信任。「试飞界有句谚语:所有模型是错误的,有些模型是有用的,」ACE项目经理 Ryan Hefron 说。「所以,我们必须找到有用的部分。」

当我与 Schnell 讨论这些进展时,他说道:「在模拟游戏中,每个人都是英雄。」在OPL实验室的机库中,这些利害关系很容易被忽视,没有人会因为虚拟飞机坠毁而受伤或死亡。「要真正触发我们正在研究的信任等式,」他告诉我,「你必须让另一块金属朝你冲来。」

产业
暂无评论
暂无评论~