人工智能系统能通过大量的重复学习来认识现实世界的情景,并对不同情景做出判断。美中不足的是,AI的判断并不总是准确。麻省理工学院(MIT)和微软公司的研究者近日开发了一个全新的学习训练模型,希望能借助人工的输入来解决训练自动驾驶AI的缺陷。
图片来源:Pixabay
自动驾驶的实现离不开AI。通常来说,AI首先要经受模拟驾驶场景的训练,以准备应对道路上的实际情况。但是,模拟训练并不足够。在实际驾驶中,面对未知的突发情况,AI很可能做出不安全的驾驶操作,并将这种不安全的驾驶行为保留下来。
举个例子,当隔壁车道有一辆白色汽车并排行驶时,自动驾驶系统不会采取任何措施,因为这是常见的驾驶情况。然而,当这辆车变成一辆救护车时,情况就完全不同了。救护车理应优先通行,可AI未必会让路。因为在AI的眼里,救护车只不过是另一辆寻常的白色汽车罢了。
研究人员期望向AI输入更多人工经验来解决更多类似的问题。
传统的自动驾驶测试会通过人工辅助来获取反馈:如果辅助驾驶员没有对AI驾驶做出修正,那么表明AI的驾驶是安全的;若辅助驾驶员干预了AI的驾驶动作,比如帮AI踩了一脚刹车,那么说明AI发生了误判,做出了有危险的驾驶行为。
可是,这个反馈机制的问题在于:它只能用这些反馈来更新AI系统的动作,而不能真正让AI理解引发辅助动作的问题所在,比如说忽视了盲区里的一台白色救护车。
人工可以辅助修正潜在的驾驶安全问题,却不见得能改变AI驾驶的判断逻辑。我们再次以白车并行为例,如果10次并行经历中,驾驶员仅在唯一一次和救护车并行时采取了刹车的干预措施,算法仍然可能以简单多数的原则认定“与白车并行”是一个安全的行为。可实际上,安全隐患仍然存在,并可能造成严重的事故,尽管几率很小。
某种意义上,无法意识到自动驾驶操作潜在的风险,也是自动驾驶AI的一个运算“盲区”。
研究人员采用了Dawid-Skene算法,这个机器学习算法运用众包来处理多种混乱的标签。Dawid-Skene算法会将复杂的驾驶环境和被标注为“安全”和“不安全”的驾驶行为进行运算,并区分出真正安全的驾驶行为和那些看似安全实则危险的驾驶行为。
即便有些看似危险的驾驶操作仅有10%的危险概率,也能够被算法揪出,并让人们知道,AI对这个驾驶行为没有十足的信心。最后,算法能根据运算的结果制出一幅各类驾驶行为安全性的热图,并标出每个AI驾驶“盲区”发生的可能性。
这个新模型可以运用在很多领域,自动驾驶之外,自动机器人系统也亟需解决自动操作的”盲区问题”。“它可以帮AI认清自身能力有几斤几两”,研究的参与者之一,MIT计算机科学博士生Ramya Ramakrishnan先生如此评价道,“架起连接人类知识和AI学习的桥梁可以让AI减少犯错的几率,变得更加安全。”
参考资料:
[1] Identifying artificial intelligence 'blind spots'. Retrieved Jan 28, 2019 from https://www.eurekalert.org/pub_releases/2019-01/miot-iai012419.php