Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

泽南、杜伟报道

AI算法效率每16月翻番,OpenAI:长江后浪推前浪

人工智能算法也遵循着自己效率提升的「摩尔定律」。

人工智能领域里,因为研究人员的努力,顶尖算法的效率提升速度超过了芯片中摩尔定律的速度。

著名人工智能研究机构 OpenAI 今天更新了有关业内顶尖机器学习模型算法需求的报告,并得出最新结论:自 2012 年以来,在著名数据集 ImageNet 上训练一个图像分类系统所需的算力每 16 个月减少一倍。

这一观点和 OpenAI 几个月前「最先进 AI 模型算力需求增长 30 万倍」的态度有了很大变化,其结论或许意味着人工智能在未来发展的过程中将不大可能受到算力瓶颈的掣肘。

除了关注模型的最优表现之外,OpenAI 本次研究发现的模型效率提升是最引人关注的地方。它还有着更深层次的意义:为 AI 的技术属性和社会影响提供依据。

「算法的改进是 AI 技术提升的核心。不过寻找衡量所有技术进步的标准非常困难,特别是它们在使用算力方面变化的趋势,」OpenAI 表示。「算法效率的提升使得研究人员可以在同样时间内进行更多实验,并减少资金花费。分析表明,政策制定者需要增加对于计算效率研究的投资,这不仅对于学术界有帮助,而且可以进一步帮助业界。」

此外,值得注意的是,OpenAI 并不是首个公开提出对 AI 模型的效率展开基准测试的机构。2019 年,艾伦人工智能研究所、卡内基梅隆大学以及华盛顿大学的科学家提议将效率作为 AI 学术论文以及准确性和相关度量的更常用评估标准。同时,也有人呼吁进行工业级的效能分析,并为机器学习项目建立每瓦特计算(compute-per-watt)的标准。

「后浪推前浪」:更高效模型不断涌现,算力持续提升

在调查研究中,OpenAI 发现在 WMT-14 翻译任务上谷歌 Transformer 所需算力已经比此前常用的 seq2seq 模型要少 61 倍——而两者推出的相隔时间也仅有 3 年。

DeepMind 的著名人工智能 AlphaZero 不仅可以从零开始自我学习实现在围棋、象棋、日本将棋等游戏中超越人类的水平,而且要比前一代系统,仅早一年推出的 AlphaGoZero 节省 8 倍算力。

对于 OpenAI 自己,最近被人们所熟知的技术当然是 Dota 2 人工智能 OpenAI Five 了,其最新的 Rerun 版本仅需 1/5 的算力即可打败前一代算法,而两代推出的相隔时间仅有三个月。

近年来各种算法训练出 AlexNet 级图片分类效果所需的算力,蓝色点为当时效率最优。

简而言之,仅以图像分类任务来看的话,过去 7 年人工智能的效率已经提升了 44 倍。这个速度超过了摩尔定律,似乎意味着只要持续努力下去,我们无需担心会因为硬件瓶颈而导致人工智能发展受阻的情况。另一方面,考虑到 2012 年的算力价格和 2019 年大有不同,在实践中情况还要更好一些。

如此乐观的结论,和不到一年前 OpenAI 得出的「AI 计算量每年增长 10 倍」看起来有些不同。去年 11 月,这家机构的研究发现从 AlexNet 到 AlphaGo Zero,跨方向最先进 AI 模型对计算量的需求已经增长了 30 万倍。

OpenAI 推测算法效率可能超过摩尔定律带来的增益,因为它观察到集成电路中的晶体管数量大约每两年翻一番。有趣的是,人工智能的发展规律也类似于英特尔芯片近年来提出的「Tick Tock」发展战略——新的功能通常需要耗费大量的算力才能获得(新制程),然后这些功能的优化版本得益于流程改进而实现更高效的部署(似乎可以对应芯片上新微架构的提升)。

此外调研结果表明,对于投入大量研究时间和/或算力的 AI 任务来说,算法效率的提升可能超过了对硬件效率的需求。

作为总体基准测试的一部分,OpenAI 首先进行视觉和机器翻译效率基准测试,特别是在 ImageNet 和 WMT14 数据集,并且之后会添加更多的基准方法。不允许出现人工标签、其他图像或数据,但对用于翻译或扩增增强的训练数据不会施加任何限制。

从 ImageNet 数据集上的 79.1% top-5 准确率来看,从 2012 年的 AlexNet 到 2019 年的 EfficientNet,算力提升了 44 倍之多。

从 WMT-14 EN-FR 数据集上的 34.8 BLEU 来看,从 2014 年的 Seq2Seq(Ensemble) 到 2017 年的 Transformer(base),算力提升了 61 倍。

算力、算法相结合,继续加大 AI 算法效率的研究投入

OpenAI 表示:「业界领袖、政策制定者、经济学家和潜在的研究人员都力图更深刻地理解 AI 进展,并决定他们应该投入多少以及这些投入的未来走向。AI 模型效率的基准测试正好可以帮助他们做出正确的决策。」

AI 算法的效率提升虽然可观,但相对于呈指数增长的新算法参数数量来讲还是显得不够。OpenAI 研究人员提出的「有效计算」概念把算力和算法的提升结合了起来,我们可以直观地看到各领域对于人工智能发展的贡献:

看起来,并行计算和芯片制程的提升加起来还是占大头。但正如研究人员得出的结论:我们需要加大对于 AI 算法效率研究的投入。

参考内容:https://openai.com/blog/ai-and-efficiency/

入门OpenAIAI
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

推荐文章
暂无评论
暂无评论~