Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

小葳作者AImatters公众号

你信得过AI吗?听听IBM科学家怎么看

每当看到自动驾驶出车祸的新闻,很多人对AI的信心就会缩减一分。但矛盾的是,每一天很多人都在享用AI算法推荐给你的音乐、新闻或商品。随着人工智能步入大规模商业落地阶段,AI必将参与到更多高风险决策的场景中,比如:

当AI分析师给出一个投资建议,参考价值有多大?

当AI告诉HR专员,某个候选人更胜任一个岗位,真是这样吗?

甚至,当AI医生做了一个新的诊疗方案,你是否会选择相信他?

在今年的世界人工智能大会(WAIC)上,IBM阐述了完整的AI发展策略:先进的AI(Advance AI)、可扩展的AI(Scalable AI)、可信的AI(Trusted AI)。在可信AI领域,IBM不仅有完整的方法论,还有提供了先进工具和技术。

什么是可信AI?可信AI将怎样影响人工智能行业发展?不久前,智能进化论专访了IBM副总裁、大中华区首席技术官谢东博士。

IBM副总裁、大中华区首席技术官谢东博士1

IBM的AI之道:先进、可扩展、可信

本届WAIC,IBM对其人工智能能力进行了系统性展示,并将自身的人工智能之道简化为三大关键词,对应的也是人工智能产业发展的三大关键问题:

先进——AI还能做什么?

可扩展——AI产业化的挑战在哪?

可信——AI到底靠不靠谱?

先进AI是外界最为熟知的、IBM人工智能领域的高光时刻。从助力阿波罗登月计划,到深蓝打败卡斯帕罗夫,从在Jeopardy答题节目战胜人类,到首个与人类辩论的AI Project Debater。

这次,IBM带来了先进AI的另一成果:人类历史上第一位兼具情商与智商的“友好型”宇航员交互式移动伙伴Project CIMON(Crew Interactive MObile CompanioN)。Project CIMON是IBM基于人工智能技术,与空中客车公司(Airbus)合作开发的。

目前,Project CIMON正在距离地球400公里的国际空间站服役。借助文字、语音和图像处理能力,以及检索特定信息和特定发现的能力,Project CIMON可以协助宇航员完成复杂的实验,成为工作助手和贴心伙伴。

IBM Project CIMON可扩展的AI是让AI更广泛应用到行业中。据统计,94%的公司认为人工智能对于竞争优势的维系非常关键,但是采纳速度却非常缓慢。

谢东表示,IBM提供完整的信息架构、人工智能阶梯和多云的环境,让企业使人工智能更快、更简单。同时,由于目前人工智能技术选择太多,迭代太快,IBM也将分享在技术平台、路线方向的最佳实践,帮助企业解决技术选型的痛点。

可信的AI,即确保AI的公平性、可解释性、健壮性和透明性,确保算法可被人信任。

谢东介绍,目前可信AI还是一个比较前瞻的概念,行业、企业和消费者对可信AI的认知度还有待提升。但是随着AI大规模落地,可信AI必将成为一个不可忽视的关键。一些国家和国际组织已经意识到,可信AI对人工智能产业发展的关键作用。

2019年4月8日,欧盟委员会发布了《人工智能伦理指南》,提出了实现可信人工智能的七个要素。包括保障人工智能技术的人的自主性、稳健性和安全性,确保隐私和数据管理,确保算法系统的透明度,以及要求人工智能提供多样化、非歧视性和公平的服务。

前不久,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,强调要确保人工智能安全可控可靠,推动经济、社会及生态可持续发展,共建人类命运共同体。

2

可信AI时代已来,让AI告别“黑箱”

人类在享受AI带来的高效智能的同时,对AI的疑虑也在不断增加。而且这种疑虑并不是今天才出现的。被誉为科幻电影里程碑的《2001太空漫游》片中,宇宙飞船上的人工智能系统HAL为了执行任务杀掉了一名宇航员。

“只有确保AI所作出的决策是公平、易理解、安全、可信赖,人们才能信任它,AI才能真正发挥作用。”谢东介绍。

基于数十年来在人工智能领域的探索欲实践,IBM认为,可信AI包括四大要素,缺一不可:

公平性(Fairness)。AI系统应该采用不带偏见的数据集和模型,从而避免对于特定群体的不公平。运行哪些数据进行训练、采用什么样的方法训练,都将影响AI系统的公平性。

可解释性(Explainability)。当一个AI系统做出了一个决策或预测的时候,特别是负面的预测时,我们要能够知道背后的原因。AI系统不应该是一个不可解释的黑箱,应该能够被用户和开发者所分析、理解。比如,为什么这个人的人脸识别通不过?为什么AI认为这个候选人更胜任工作?

谢东介绍,广义上讲,AI系统都需要具备可解释性。对于AI开发人员,可解释性可以用来检验系统是否达到目标;对于普通用户,有助于改进与AI的互动;对于监管体系,可解释的AI也有助于特定目标的达成。

健壮性(Robustness),或者鲁棒性。AI系统应该安全和可靠,不会被篡改,也不会受被“污染”的训练数据集影响。

AI系统需要防御潜在的攻击,比如对抗样本攻击,攻击者通过在源数据上增加人类难以通过感官辨识的细微改变,从而让AI系统得出错误的判定。如果对抗样本攻击交通信号灯,让AI系统将红灯错认为绿灯,就会导致自动驾驶车辆发生严重的交通事故。

透明性(Transparency)。AI系统可以被透明化管理,其开发、部署、维护等可被追踪,能够在生命周期范围内被审核等。

3

三大开源项目,推动可信AI发展

目前,可信AI还处在发展初期,对可信AI的规范还处在摸索阶段,相关的技术、工具也在逐步完善中。

谢东表示,一方面,IBM会持续呼吁产业各界重视可信AI,在可信AI的前提下推动人工智能产业的健康发展,另一方面,IBM自身也乐于与行业分享在可信AI方面的技术探索。目前,IBM针对可信AI已推出三大开源项目,帮助开发人员和数据科学家构建可信、安全和可解释的人工智能系统。

AI fairness 360是一个全面的开放源码工具集,于2018年8月开源,能够在机器学习各个阶段消除数据和模型偏差,用于检查和减轻AI中的偏见;

AI Explainability 360是2019年7月开源的一个最先进算法集合,针对同一个问题,提供基于不同受众的多角度解释能力,用解释AI模型决策;

Adversarial Robustness 360 Toolkit,于2017年5月开源,主要针对潜在的对抗样本攻击,提供从攻击到防御到监测的全套方法工具。

此外,IBM还推出了AI OpenScale技术平台,可让企业在人工智能的整个生命周期中实现透明化管理,记录每项预测、每个模型版本、所有使用的训练数据及各种指标,帮助企业遵守欧盟GDPR等法律法规。

谢东指出,“IBM专业的企业级硬件和软件,以及IBM研究院在探索可信人工智能方面所做的各种创新实践,连同IBM多年积累的行业经验,打造了可信AI的数字基础设施。可信AI的元素将被嵌入到IBM整体解决方案中,一同交付给客户。”

在可信AI的道路上,IBM扮演了先行者和探索者的角色。可信AI不仅是一种领先的价值观,更是科技向善的体现。只有基于可信AI,我们才能更安心地受益于科技进步。

智能进化论
智能进化论

解读你身边的智能科技,洞察技术驱动的商业变革,让普通人读懂智能未来。

产业IBM
暂无评论
暂无评论~