当地时间 2 月 11 日,美国总统特朗普签署了一项行政命令,启动「美国 AI 计划」,以刺激美国政府在人工智能领域的投资,促进美国 AI 产业的发展。该计划有五大重点:投资人工智能研发(R&D);解放 AI 资源;制定 AI 管理标准;培养 AI 劳动力;加强国际合作同时保护美国的 AI 优势。这份文件的签署在全球 AI 社区内吸引了广泛的关注,引起了热烈讨论。
机器之心邀请了牛津大学人工智能管理中心(Center for the Governance of AI)政策研究员谢旻希(Brian Tse),分享他对于这一新的美国 AI 计划的观点。
为什么说这个 AI 计划很重要?
与其他国家不同,美国政府在这个计划之前并没有发布对应的国家战略,来增加 AI 投资或者应对 AI 技术的社会挑战。与奥巴马总统相反,特朗普政府对人工智能采取了完全不同的、由市场主导的方法,而奥巴马政府在任期的最后几个月前瞻性地为美国战略奠定了基础。出于对美国有可能失去优势的担忧,很多美国人批评政府这种不干预的态度。去年,时任美国国防部长的 Jim Mattis 向白宫发送了一份备忘录,恳求总统制定一项国家级 AI 战略。「美国 AI 计划」是对美国政策分析专家和法律制定者呼吁美国在全球人工智能领域加强领导的一次回应。
该计划首先强调了美国提升人工智能研发的需求,声明美国必须「推动人工智能领域的技术突破」。但是这更是一个意义深远的计划,它涵盖了一系列超出技术发展和创新的问题,包括法规、教育、公共部门-私营部门数据共享、国际外交。这对美国很多行业都产生了影响,同时还影响到人工智能管理的全球对话。
这份计划会对人工智能社区带来什么影响呢?
考虑到数据对于训练 AI 算法的重要性,在美国 AI 计划的指导下,人工智能公司和研究人员应该会很高兴能够访问更多美国政府的「数据、模型和计算资源」。联邦政府机构会通过确认高优先级的联邦数据和模型来增加对其资源的访问,这能够改善联邦政府 AI 数据的质量,将高性能的云计算资源分配给 AI 相关的应用和研发。举一个公共部门-私营部门数据共享的例子,Google 与美国退伍军人事务部有一个访问医疗记录的试验项目,该项目帮助谷歌开发早期肾病检测的测试。
一份关于美国人对 AI 态度的最近调研(https://governanceai.github.io/US-Public-Opinion-Report-Jan-2019/index.html)表明:美国人不太相信任何组织会出于公共利益发展 AI。为了更好地建设公信力,联邦政府机构将探索监管方法来管理新的 AI 应用,在尊重隐私和公民自由的同时促进创新。这个战略指导着白宫科技政策办公室(OSTP)、美国国家标准与技术研究院(NIST)等部门一起起草标准,来引导「可靠、稳健、可信、安全、便携、可互操作的人工智能系统」的开发。
您认为是否存在一些瓶颈或缺陷呢?
考虑到海外人才对美国人工智能发展的重要性,美国 AI 计划没有解决移民问题。据估计,移民占了美国大学计算机专业研究生的很大一部分。对美国 AI 发展做出贡献的一些顶尖外国学者包括吴恩达和 Yann LeCun,他们为目前的深度学习浪潮开拓了底层技术。正如 OpenAI 联合创始人兼 CTO[BT1][BT1]Greg Brockman 所言:「我们在美国的秘密武器就是我们引进全世界 AI 人才的能力。」同时,加拿大等国家已经创建了一些项目,欢迎被美国排挤的技术人才。
该计划的另一个缺陷是没有充分讨论确保 AI 系统能够在合乎道德和负责任的框架下进行开发和使用。纽约大学 AI Now Institute 联合创始人兼联合负责人 Kate Crawford 教授之前告诉 IEEE Spectrum:「我很怀疑过去提到的这些保护能带来任何建立恰当法律、伦理、政策保障的努力,来确保 AI 系统能够被负责任地部署。」与美国相反,欧盟委员会制定了一系列 AI 指导方针来解决伦理问题,例如公平、安全和透明,欧盟委员会还成立了各种专家组进行讨论。
可以预测一下美国 ai 计划的未来发展吗?
该计划的后续行动将会至关重要,因为我们并不明确美国政府是否有能力履行美国 AI 计划中的承诺。曾在奥巴马政府人工智能组工作过的 Jason Furman 尤其持怀疑态度。正如他告诉《麻省理工科技评论》的:「美国 AI 计划包含所有的正确元素;关键的考验在于政府能否积极贯彻该计划...... 这个计划野心勃勃,但是没有任何细节,也无法自动执行。」该计划还缺乏明确的执行时间线,所以无法保证即使最克制的政策提议能否在可预见的未来取得成果。
此外,不像中国或者其他国家的人工智能计划,特朗普的行政命令没有配置任何附加的联邦政府资金,仅仅号召联邦机构优先将现有资金用于 AI 项目。这样一来,责任就在选定的联邦机构头上了,他们要想出一个计划来高效分配现有资源。
您如何从全球的角度评价这个计划?
这个计划的关键目标之一是「呼吁一项国际合作策略,保证 AI 以一种符合美国价值观和利益的方式去发展」。我深信美国利益可以和中国利益共存。价值观的差异没必要也绝对不能影响两国在共同利益的关键领域进行合作。
考虑到人工智能的全球性和相互依存的本质,全球合作对于解决人工智能的社会和政治挑战(例如全球安全)是必要的。新美国安全中心最近一份名为《Technology Roulette》的报告指出,认识到包括人工智能在内的新兴技术带来的巨大不确定性可以通过协议减少意外和紧急风险。亨利·基辛格认为人工智能会复杂化传统军备控制谈判中的核查问题。因此,「找到一种方法防止人类自我毁灭是一种实际、合乎道德的迫切需要。美国和中国必须努力了解他们共同发展的本质。」中国领导人已经表现出寻求人工智能合作的意愿,特别是 2018 年习近平主席致信上海世界人工智能大会:「需要各国深化合作、共同探讨,处理好人工智能在法律、安全、就业和政府治理等方面提出的新课题。中国愿在人工智能领域与各国共推发展、共护安全、共享成果。」
尽管全球合作可能很困难,但是各国必须寻求可能的合作途径来构建一个安全繁荣的人工智能未来。
关于谢旻希
谢旻希(Brian Tse)是牛津大学人工智能治理 [BT2] 中心的政策研究员、Partnership on AI 高级顾问、OpenAI Chapter 的中文版译者。他的研究专注于关于高级 AI 安全有益发展的国际合作,曾受邀在 DeepMind 和 Asilomar Conference on Beneficial AI 演讲。他是清华大学组织的一次人工智能技术安全 [BT3] 会议的计划委员会成员 [BT4]。
关于机器之心洞见合作伙伴项目
机器之心洞见合作伙伴项目是一个仅限受邀参加的项目,它将有影响力的组织、公司、学术专家和产业界领袖聚集在一起,通过采访和公开演讲等形式来分享专业经验。机器之心邀请所有的行业专家、分析师和其他从事人工智能和机器学习相关工作的人参加该项目。
通过这里申请机器之心洞见合作伙伴项目(https://docs.google.com/forms/d/1B5v1PFULWSXYwhx0RCjkoyNNPjqDk7Lay-SWYoqoEWw/edit),让我们了解您以及您所从事的人工智能相关工作。一旦申请通过,我们会给您回复。