泽南、杜伟、蛋酱参与

PyTorch核心加速技术涉嫌抄袭?MIT教授创业公司将Facebook告上法庭

PyTorch 今天已经成为全球最主流的深度学习框架之一,然而其开源的一些重要技术却被指有抄袭和泄露商业机密的嫌疑。


近日,一份起诉书成为了深度学习社区的热点话题:Facebook 从创业公司 Neural Magic 挖来的技术人员 Zlateski 重现了今天 PyTorch 上的关键神经网络加速技术并将其开源。因为这件事,Facebook 被告上了麻省法庭。
在科技巨头面前,创业公司的保密协议和竞业协议能否发挥应有的效力?

据外媒报道,在波士顿(马萨诸塞州)地方法院,由 MIT 研究科学家 Alex Matveev 博士和 MIT 电气工程与计算机科学教授 Nir Shavit 共同创立的 AI 公司 Neural Magic 对其前技术总监 Aleksandar Zlateski 和 Facebook 提起了诉讼。

Neural Magic 起诉前员工 Zlateski 违反了保密协议和竞业禁止协议,而 Facebook 靠着挖角 Zlateski,窃取和公开了属于 Neural Magic 核心技术与知识产权的「专有算法」。

Neural Magic 是 MIT 教授 Nir Shavit 和 MIT 研究科学家 Alex Matveev 在 2017 年合伙创办的公司,地址位于马萨诸塞州的萨默维尔市。Neural Magic 的核心技术之一就是方才提到的算法,该算法可使得计算机在不配备专用硬件的前提下,就能运行复杂的数学函数,并使用更大规模的数据集。

Nir Shavit 是麻省理工学院电气工程与计算机科学系和 CSAIL 实验室的一名教授,主要研究方向为多芯片加速算法的设计与实现。

它的软件解决方案算是「无硬件 AI 模型」中的先驱。这一软件程序可以在 CPU 上处理深度学习工作负载,不需要常用的计算专用硬件,通过安装在 CPU 上的软件使其达到媲美 GPU 的水平。

Zlateski 是 Shavit 教授手下的一名博士后,也是第一位加入创业公司 Neural Magic 的员工,年薪 16.5 万美元,担任技术总监职位。Zlateski 能够获取公司的所有商业秘密、机密信息、专有信息和未来的商业计划。Zlateski 也是创建软件以及封装 Neural Magic 专有算法的编译器源代码的重要人物。

2019 年 7 月,Zlateski 从 Neural Magic 离职,随后加入 Facebook,并保证新工作的内容与原公司无关。Neural Magic 选择信任 Zlateski——基于他此前和公司签订的保密协议和竞业协议。

但是,2019 年 11 月,Facebook 在 GitHub 上发布并开源了包含 Neural Magic「专有算法」的编译器。此外,Neural Magic 在诉讼中提到,在编译器算法的发行公告中,Facebook 甚至对 Zlateski 在解决算法关键难题中发挥的重要作用公开表示感谢:「团队认可并高度赞扬 Zlateski 在稀疏内核和统一代码缓存方面所做的贡献。」

这家公司去年 11 月从 Comcast Ventures、NEA、Andreessen Horowitz、Pillar VC、 Amdocs 等投资机构筹集了 2000 万美元,解决方案正在出售给英伟达、AMD、华硕等企业。

所指技术与 Glow 有关?

究竟是哪种技术让 Neural Magic 决定与科技巨头 Facebook 对簿公堂?在起诉书中 Neural Magic 将其解释为「由公司 CEO Nir Shavit 牵头研发的,可在 CPU 中高效运行多种神经网络,而无需专用处理单元(如 GPU)的创新方法,消除了机器学习人工智能领域的硬件壁垒。」这项技术被形容为充满价值,可让机器学习变得无处不在,并开启下一阶段 AI 研究的热潮。

至于其价值如何,Neural Magic 公司表示因为此技术获得了 2000 万美元的融资。

这样的形容方式让我们想到了 Facebook 试图「一统所有 AI 芯片」的深度学习编译器 Glow。在 2018 年刚推出时,Facebook 将其形容为一种帮助深度学习模型渲染成用于硬件加速的字节代码的加速方法。该编译器包括多个工具,如用来生成用于芯片特定内存配置的指令排程器、线性代数优化器、内存分配器,以及用来测试硬件准确率的基于 CPU 的推断实现。


使用通用处理器作为 AI 算力,显然可以大大扩展人工智能应用的范围。Facebook 推出 Glow 之后很快就宣布了多家重量级芯片公司成为合作伙伴,其中包括英特尔、Marvell、高通、Esperanto 和 Cadence。

在本次诉讼中成为被告的 Aleksandar Zlateski 在 2018 年 3 月成为了 Neural Magic 的第一名非创始成员。2019 年 11 月,原本被 Neural Magic 列为商业机密的算法被 Facebook 开源在了 GitHub 上。

现在相关方法可能已被多家公司和机构所使用。

诉讼中也提到,目前,Facebook 并没有理会 Neural Magic 发给公司和 Zlateski 关于删除 GitHub 发布内容的信函。在一系列信件中,Facebook 和 Zlateski 的律师表示拒绝删除代码,也不同意停止使用 Zlateski 作为 Facebook 员工时挪用的 Neural Magic 专有机密信息。

截至今日,两家公司对此事均未置评。

互联网行业的竞业协议

近年来,竞业禁止一直是劳动法中的热点问题,也是商业秘密保护的有效手段之一。就美国而言,大多数州都对竞业协议持支持态度,年限一般不超过 2 至 3 年,不过科技行业发达的加州一直拒绝执行限制员工流动的合同。公司在雇佣员工时签署竞业禁止协议,目的是包含公司的技术与知识产权。一旦离职员工将原公司的商业秘密透漏给新就职公司,或者自主创业,则会对原公司造成无以复加的打击。

作为以技术和知识为导向的互联网行业,竞业禁止协议可能会更加严格。在国内外,因违反竞业禁止协议而被判巨额赔偿的案例屡见不鲜。近年来沸沸扬扬的谷歌告 Uber 事件就是一个典型的例子。本月初,谷歌前工程师、无人驾驶公司 Otto(后被 Uber 收购)创始人 Anthony Levandowski 因违反竞业协议被判赔谷歌 1.79 亿美元。Anthony 虽对裁决提出异议,但法院驳回了其请求。最后,Anthony 申请破产保护,称罚款远超其资产。

谷歌和 Uber 的案例或许为 Neural Magic 带来了获胜的信心。职场人行职场事,既要积极维护自己的正当权益,也应遵守职业道德以及与公司签署的各项合法、合理协议。

参考内容:
https://www.universalhub.com/files/neuralmagic-complaint.pdf
https://www.americaninno.com/boston/inno-news-boston/neural-magic-sues-facebook-for-publishing-trade-secrets/
入门MITFacebookPyTorch
21
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

https://www.intel.cn/content/www/cn/zh/homepage.html
相关技术
高通机构

高通公司(英语:Qualcomm,NASDAQ:QCOM)是一个位于美国加州圣地亚哥的无线电通信技术研发公司,由加州大学圣地亚哥分校教授厄文·马克·雅克布和安德鲁·维特比创建,于1985年成立。两人此前曾共同创建Linkabit。 高通公司是全球3G、4G与5G技术研发的领先企业,目前已经向全球多家制造商提供技术使用授权,涉及了世界上所有电信设备和消费电子设备的品牌。根据iSuppli的统计数据,高通在2007年度一季度首次一举成为全球最大的无线半导体供应商,并在此后继续保持这一领导地位。其骁龙移动智能处理器是业界领先的全合一、全系列移动处理器,具有高性能、低功耗、逼真的多媒体和全面的连接性。目前公司的产品和业务正在变革医疗、汽车、物联网、智能家居、智慧城市等多个领域。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

线性代数技术

线性代数是数学的一个分支,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题;因而,线性代数被广泛地应用于抽象代数和泛函分析中;通过解析几何,线性代数得以被具体表示。线性代数的理论已被泛化为算子理论。由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中。

优化器技术

优化器基类提供了计算梯度loss的方法,并可以将梯度应用于变量。优化器里包含了实现了经典的优化算法,如梯度下降和Adagrad。 优化器是提供了一个可以使用各种优化算法的接口,可以让用户直接调用一些经典的优化算法,如梯度下降法等等。优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。用户基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer, AdagradOptimizer, MomentumOptimizer(tensorflow下的优化器包)等等这些算法。

推荐文章
众能联合数字技术有限公司・AI算法工程师
应该是疑被抄袭吧