Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

杜伟、陈萍机器之心报道

自家员工质疑Jeff Dean领衔的Nature论文被解雇,谷歌:我们彻查了,质疑不符合标准

对于被质疑,谷歌表示,「这篇论文经过了Nature严格的同行评审。」

最近一两年,谷歌接连解雇了批评其人工智能系统内置偏见的两位研究者——Timnit Gebru 和 Margaret Mitchell,引发了研究社区的热议。

最近,谷歌再次解雇了 Google AI 团队的一名研究人员 Satrajit Chatterjee,原因是他带领的团队对谷歌 2021 年 6 月发表在 Nature 上的一篇关于制造计算机芯片的专用 AI 能力的论文进行了质疑。

那篇论文由谷歌 AI 负责人 & 知名学者 Jeff Dean 领衔,描述了一种基于 AI 的芯片设计方法,平均可以在 6 小时内完成设计计算机芯片的某些组件,这要比人类专家所需要的数周时间快得多。
图片
左为人类设计的微芯片布局,右为机器学习系统设计的微芯片布局。图源:Nature

据知情人士透露,对于 Chatterjee 的质疑,谷歌告知不会发表其团队的质疑论文,并于今年 3 月解雇了他。谷歌在一份书面声明中证实 Chatterjee 已经「因故被解雇」,他的领英信息也证实了这一点。

根据领英介绍,现年 43 岁的 Chatterjee 此前担任 Google AI 的工程负责人和机器学习研究者,专注于深度学习的根本性问题(比如理解神经网络为何能够泛化)以及从芯片设计到新型交互娱乐等不同的 ML 应用。他本科毕业于孟买理工学院,并在加州大学伯克利分校取得计算机科学博士学位。
图片
Satrajit Chatterjee

谷歌拒绝详细陈述 Chatterjee 博士被解雇的情况,但就他所质疑和批评的那篇 Nature 论文以及不愿发表他的质疑论文进行了全面的辩护。

谷歌研究院副院长 Zoubin Ghahramani 在一份书面声明中表示,「我们彻查了 2021 年发表在 Nature 上的原始论文,并支持同行评审的结果。不仅如此,我们还严格调查了 Chatterjee 之后所提交的质疑论文的技术声明,认为它不符合我们的发表标准。」
 
这一解雇事件再次凸显了一直以来谷歌管理层与推动其众多项目的 AI 团队之间存在的矛盾。在 2020 年谷歌因一篇论文争议解雇伦理人工智能团队技术联合负责人 Timnit Gebru 之后,问题就真正地开始了。在 2021 年初再次解雇伦理人工智能团队创始人和联合负责人 Margaret Mitchell 之后,问题就已经升级了。Mitchell 公开批评谷歌高管以及解雇 Gebru 的决定,而谷歌称其违反了公司的数据保密政策。
图片
Timnit Gebru(左)和 Margaret Mitchell(右)。

这些解雇事件导致资深工程师离开谷歌并要求进行改革。虽然谷歌此前调查了针对 Gebru 的解雇并承诺做出改变,但此次解雇 Chatterjee 可能会加剧谷歌员工与公司的紧张关系。

计算机科学家、艾伦人工智能研究所 CEO Oren Etzioni 在线「吃瓜」,对谷歌为何解雇 Chatterjee 表示了自己的疑问。
图片
Chatterjee 被解雇的来龙去脉
2021 年 6 月发表在 Nature 上的这篇论文提出一种叫做强化学习的技术,文章称这种技术可以改善计算机芯片的设计。当时这项技术被誉为人工智能一个突破,是对现有芯片设计方法的巨大改进。谷歌表示,他们利用这种技术开发了自己的人工智能计算芯片。
图片
被质疑论文地址:https://www.nature.com/articles/s41586-021-03544-w

多年来,谷歌一直致力于将机器学习技术应用于芯片设计,他们曾在 2020 年发表过一篇类似的论文。关于这篇被质疑的论文,据知情人士透漏,谷歌曾经咨询过 Chatterjee 博士,以确定论文中提到的方法是否可以出售或授权给一家芯片设计公司 。

另外据三位知情人士透漏,Chatterjee 博士在一封内部电子邮件中对该论文的一些主张提出保留意见,并质疑论文中的技术是否经过严格测试。

在这项研究还处于争论的同时,谷歌向 Nature 提交了另一篇论文,也即 2021 年 6 月发表的这篇。知情人士表示,关于新提交的论文,是谷歌对之前的论文进行了一些调整,并删除了两位作者的姓名,他们曾与 Chatterjee 博士有过密切合作,被除名的这两位作者曾对论文的主要主张表示担忧。

当新论文发表时,一些谷歌研究人员感到非常惊讶。他们认为,这篇论文违背了公司高级副总裁 Jeff Dean 提出的关于人工智能出版物的审批程序。
图片
Jeff Dean

谷歌和该论文的两位主要作者 Anna Goldie、以及计算机科学家 Azalia Mirhoseini 共同撰写了这篇论文,他们表示,对于较早论文的更改不需要经过完整的批准程序。谷歌允许 Chatterjee 博士和少数内部和外部研究人员组建一个团队,撰写一篇挑战其某些主张的论文。

该团队将 rebuttal 论文提交给一个所谓的决议委员会,以获得发表批准。但是几个月后,这篇 rebuttal 论文被拒绝了。

参与撰写 rebuttal 论文的研究人员表示,他们希望将这个问题上报给谷歌 CEO Pichai 先生和 Alphabet 的董事会。他们争辩说,谷歌不公布 rebuttal 的决定违反了自己创建的 AI 原则( A.I. principles),该原则包括坚持科学卓越的高标准。知情人士表示,不久之后,Chatterjee 被告知他已被解雇。

Goldie 表示,Chatterjee 博士曾要求在 2019 年管理他们的项目,但他们拒绝了。Goldie 还表示,后来 Chatterjee 博士开始控诉这个项目,但他又无法证实他的控诉,并且无视 Goldie 团队提出的回应证据。

「两年多来,Sat Chatterjee 一直反对我和 Azalia 的研究。」Goldie 在一份书面声明中表示。

Goldie 认为这项工作通过了 Nature 的同行评审,并补充说,谷歌已经使用他们的方法制造了新的芯片,这些芯片目前用于谷歌的计算机数据中心。

各方的反应

Chatterjee 博士的律师 Laurie M. Burgess 表示,令人失望的是,Nature 论文的某些作者正试图通过诽谤和攻击 Chatterjee 所做仅仅为了寻求科学透明度,进而来阻止科学讨论。Burgess 还质疑 Jeff Dean 的领导能力,因为他也是这篇论文的 20 位合著者之一。

「Jeff Dean 的行动是压制所有相关实验数据的发布,而不仅仅是支持他喜欢的假设的数据,这应该会给科学界和消费谷歌服务和产品的更广泛社区带来深刻的困扰,」Burgess 表示。

Jeff Dean 没有回复置评请求。

不过那篇 rebuttal 论文被谷歌以外的学者和其他专家分享后,争议开始在全球芯片设计研究人员中扩散。

芯片制造商英伟达表示,他们使用了类似谷歌的芯片设计方法,但一些专家不确定谷歌的研究对更大的科技行业意味着什么。德国德累斯顿工业大学教授 Jens Lienig 在谈到谷歌论文中描述的人工智能技术时表示,目前还不清楚论文中的技术是否有效。

参考链接:
https://www.animalhealthlatam.com/content/satrajit-chatterjee
https://www.competitionpolicyinternational.com/google-fires-another-ai-researcher/
https://www.nytimes.com/2022/05/02/technology/google-fires-ai-researchers.html
技术分析深度学习谷歌
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

推荐文章
暂无评论
暂无评论~