Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

谷歌CEO首发声,发布AI研究七大准则:不开发武器但与军队继续合作

在上周五决定退出军事 AI 项目 Project Maven 之后不久,谷歌首席执行官桑达尔·皮查伊于今天发布了公司在 AI 研究,特别是 AI 军事研究上的道德准则。长达两个月的争议和抵制之下,谷歌改变了其在军事领域上的指导方向。值得注意的是,在新的准则之下,谷歌表示其将继续和军队保持合作。

AI 本质上是可以学习和适应的计算机编程,它无法解决所有问题,但具备改善人类生活的巨大潜力。谷歌使用 AI 制造更有用的产品,从免受垃圾邮件困扰的电子邮箱到智能写邮件的计算机助理,可与用户自然对话的数字助手,再到可以快速修复照片色彩的工具。

在消费级产品之上,谷歌还使用 AI 帮助人们解决亟待解决的问题。一些高中生正在构建 AI 支持的传感器来预测野火风险。农民使用 AI 管理牲畜的健康。医生开始使用 AI 诊断癌症,防止眼盲问题。这些好处就是谷歌为什么在 AI 研究和开发方面进行大量投资,并使 AI 技术通过其工具和开源代码惠及更多人的原因。

谷歌意识到这种强大技术在应用方面引起了同样大的问题。如何开发和使用 AI 将是未来很多年对社会产生巨大影响的课题。作为 AI 领域的领导者,谷歌感受到正确使用 AI 的巨大责任。因此,今天谷歌宣布七条原则来指引未来的 AI 工作。这些原则不是理论概念,而是能够积极指导研究和产品开发、影响商业决策的具体标准。

谷歌认为该领域是动态、不断进化的,因此谷歌需要用谦逊的态度推进研究功过,对内对外都要作出承诺,并愿意随着时间不断改进方法。

AI 应用的目标

谷歌认为人工智能应用应该实现的目标如下:

1. 有益于社会

新技术的扩展对社会的影响越来越大。AI 领域的进展将对医疗、安全、能源、交通、制造业等大量行业带来革命性影响。谷歌考虑 AI 技术的潜在开发和使用,以及大量社会和经济因素,决定将继续进行其认为整体益处远远大于可预见风险和弊端的领域。

AI 还增强了理解大规模内容的能力。谷歌将继续努力,利用 AI 提供高质量、可获取的准确信息,同时继续尊重各个国家的文化、社会和法律规范。谷歌将继续审慎评估何时能够在非商业的基础上推广技术。

2. 避免创造或增强偏见

AI 算法和数据集能够反映、强化或减少偏见。谷歌意识到区分公平和不公平偏见不总是那么简单,且在不同文化和社会背景下有所不同。谷歌将寻求避免对人类的不公平影响,尤其是在敏感话题方面,如种族、民族、性别、国家、收入、性取向、能力和政治或宗教信仰。

3. 为保障安全而建立和测试

我们将继续开发和应用强大的安全保障和安全的实践以避免不希望发生的导致风险的结果。我们将把 AI 系统设计得适当的谨慎,并探索按照 AI 安全研究的最佳实践来开发的方式。在合适的案例中,我们将在受限的环境中测试 AI 技术,并在部署之后监控它们的运行。

4. 对人们有说明义务

我们将设计能为反馈、相关解释和上诉提供合适机会的 AI 系统。我们的 AI 技术将服从合适的人类指导和控制。

5. 整合隐私设计原则

我们将把我们的隐私原则整合进 AI 技术的开发和使用中。我们将为通知和准许提供机会,鼓励架构中结合隐私保护,并对数据的使用提供合适的透明度和控制。

6. 坚持高标准的科学探索

技术创新根植于科学方法和开放式的调查、严谨的思考、诚信和合作。人工智能工具可能在生物、化学、医药、和环境科学等关键领域具有开拓新科学研究和知识的潜力。我们致力于促进人工智能的发展,追求高标准的科学探索。

我们将与一系列志同道合的人合作,以科学性的严谨和多学科的方式促进这一领域领导力的发展。我们将通过发布教育资源、最佳时间和研究项目来负责任地分享 AI 知识,并令更多的人开发强大的 AI 应用。

7. 根据原则确定合适的应用

许多技术有多种用途。我们将努力限制可能有害或滥用的技术应用。在我们开发和部署 AI 技术时,我们将根据以下因素评估可能的用途:

  • 主要目的和用途:技术和应用的主要目的和用途,包括解决方案与危险使用的关联或它是否能适应于危险使用。

  • 自然和独特性:我们提供的是独特的技术还是普遍的应用。

  • 规模:这种技术的使用是否会产生重大的影响。

  • 谷歌在项目中的性质:我们是提供通用目的的工具、为客户集成的工具还是开发定制版的解决方案。

我们不会进行的 AI 应用

除了上面的目标,我们不会设计或者将 AI 应用到以下领域:

  1. 只带来或者可能只会带来伤害的技术;虽然有些技术有实质性的危害风险,我们将只会进行大体上收益大于危害的技术,同时也会做出合适的安全保证。

  2. 武器、其目标或者实现是为了直接/间接伤害人类的技术。

  3. 违背国际可接受的标准,收集或者使用监督信息的技术。

  4. 违背国际可接受的律法、人权等普世原则的技术。

我们想要澄清,虽然我们不开发用于武器的 AI,但我们将会继续与政府、军队在其他许多领域合作,包括网络安全、训练、军人招募、军人健康、搜索与营救。这些合作非常重要,我们将积极寻求更多方法来增强这些组织的重要工作,保证服务人员与平民的安全。

AI 的长期愿景

虽然这是我们选择实现 AI 图景的方式,我们也理解在这场对话中还为很多其他观点留有空间。随着 AI 技术的进步,我们将基于完全科学的和多学科的方法,并与大量志同道合的人合作而在这个领域推动领导力的发展。此外,我们也将继续分享用于提高 AI 技术和实践的方法。

我们相信这些原则对于公司和 AI 的未来发展而言是良好的基础。该方法和我们最初在 2004 年的创始人的信中体现的价值观是一致的。我们当时理清了目标,并把眼光放得长远,即使这意味着短期的妥协。我们当时就是这么说的,并且现在也相信着。 

原文链接:https://blog.google/topics/ai/ai-principles/

产业谷歌人工智能伦理
1
暂无评论
暂无评论~