深度学习框架哪家强?国产框架OneFlow做了一份测评报告

近日,国产深度学习框架 OneFlow 发布了人工智能方向深度学习领域的 DLPerf 测评报告。

数据显示,OneFlow 在 4 机 32 卡下的 ResNet50-v1.5 和 BERT-base 两个模型中,无论是 Float32 类型还是自动混合精度,在同样的算法和硬件条件下,吞吐率及加速比均优于其他深度学习框架。

OneFlow 是一流科技自主研发、拥有完全自主知识产权的深度学习框架软件,是国内首个由初创团队研发并开源的 AI 框架,今年 7 月 31 日正式开源。OneFlow 独创的自动数据模型混合并行、静态调度、去中心化和全链路异步流式执行四大核心技术,使用软件技术解决大数据、大模型、大计算所带来的异构集群分布式横向扩展挑战,获得了广泛的业内关注。
报告链接:https://github.com/Oneflow-Inc/DLPerf/blob/master/reports/dlperf_benchmark_test_report_v1_cn.md

此次测评是 OneFlow 开源百天后向广大开发者交出的第一份「大型答卷」。对此,创始人袁进辉表示:「OneFlow 从研发之初就主打高效性,致力于解决大规模分布式 AI 训练问题。这三个多月来,我们做了大量工作来增强稳定性、图编译和运行速度,在多机多卡场景下持续优化,以达到分布式最佳性能。」
 
参与本次测评的框架共有四款:OneFlow、TensorFlow 1.x & 2.x、PyTorch 和 MXNet。

除了数据对比,在本次测评报告中,OneFlow 还公布了对其他深度学习框架进行调优的过程,以保证测评报告公正、准确、可复现。在谈到为何公布如此详细的调优过程时,袁进辉说道:「首先,我们要保证这份测评报告是客观、可复现的,这样才能帮助到开发者的日常工作。随着数据量级的增长,开发者对于深度学习框架如何激发硬件性能持续关注,我们希望这份报告可以给开发者在应用深度学习框架时提供必要的助力,并以此填补业界没有在严格对齐算法和硬件配置的条件下科学测评分布式深度学习框架的空白。」
 
据机器之心了解,OneFlow 开源后收到了来自世界范围内的广泛关注,关注者包括来自谷歌、脸书、微软、亚马逊、阿里、字节跳动、腾讯、百度、商汤、旷视等企业的核心技术人员。开源一个多月后,接到多家头部互联网企业和人工智能企业的使用意向。

下一步,OneFlow 将基于本次 DLPerf 测试报告,为开发者提供更多关于深度学习框架的系列课程、分享与论文,继续支持企业与机构对深度学习框架的性能优化,提升深度学习框架在行业中的应用水平。

测评背景

这份报告比较了几个深度学习框架在两个经典的深度学习模型训练任务上的吞吐率及分布式训练任务上的加速比。测试均采用相同的数据集、相同的硬件环境和算法。

与其他的评测相比,这次评测有两大特色:

1)强调分布式训练任务的多机扩展性:与 NVIDIA DeepLearningExamples 相比,这次评测对比了多机扩展性,而 NVIDIA 的训练任务仅测试了单机情况。

2)仅测试框架本身的性能差异:与 DAWNBench 相比,这次评测在相同的物理环境下,做了严格的算法对齐工作,让各个框架使用相同的硬件和相同的算法脚本比较吞吐率,仅评测各个框架在系统实现方面的性能表现。而 DAWNBench 对算法要求不限,仅对比收敛到相同精度所使用的时间,所以会把算法改进和系统改进混在一起进行整体比较。

本次评测选择了两个经典主流的深度学习模型 ResNet-50 v1.5 和 BERT-Base。测试环境共有 4 台机器,每台机器配置了 8 张 V100 GPU 显卡(每台机器配置与 NVIDA DGX-1 接近)。对于每个框架的每一次性能测试,他们都至少测试了 1 机 1 卡、1 机 8 卡、2 机 16 卡、4 机 32 卡这几种情况。

针对每个框架的每个模型,评测者都测试了其分布式环境下的吞吐率,包含不同的 batch size、是否经过 XLA 优化加速、是否使用自动混合精度训练。最后,他们选取了吞吐率(throughput)和加速比(speedup)作为评测指标

ResNet-50 v1.5 性能测试结果

参与 ResNet-50 v1.5 评测的框架、版本、模型库,以及额外特性如表 4-1 所示:

在 FP32 batch size = 128 时各框架的吞吐率如下所示:

从中可以看出,无论是何种情况( 1 机 1 卡、1 机 8 卡、2 机 16 卡、4 机 32 卡),OneFlow 在 ResNet50-v1.5 模型上的吞吐率均高于其他框架。而且,随着硬件数量的增加,这种优势变得越来越明显。

下图展示了 7 个框架实现在 ResNet50-v1.5 模型上(FP32 batch size = 128)的加速比对比情况:

从中可以看出,在其他条件都相同的情况下,OneFlow 是最接近理想加速比的框架。

除了 Float32,评测者还测试了自动混合精度下各个框架的表现。

注:其中 NGC TensorFlow 1.x 的 batch size = 224,因为 batch size = 256 会遇到 OOM(out of memory)。


从表 4-3 和图 4-3 中可以看出,无论是何种情况( 1 机 1 卡、1 机 8 卡、2 机 16 卡、4 机 32 卡),在自动混合精度下,OneFlow 在 ResNet50-v1.5 模型上的吞吐率均高于其他框架。而且,随着硬件数量的增加,这种优势变得越来越明显。

下图展示了 8 个框架实现在 ResNet50-v1.5 模型上(AMP batch size = 256)的加速比对比情况:

图 4-4 8 个框架实现在 ResNet50-v1.5 模型上(AMP batch size = 256)的加速比对比。

BERT-base pretrain 性能测试结果

参与 BERT-base pretrain 评测的框架、版本、模型库,以及额外特性如表 5-1 所示:

在 FP32 batch size = 32 时各框架的吞吐率如下所示:

和在 ResNet50-v1.5 模型上的表现类似,无论是何种情况( 1 机 1 卡、1 机 8 卡、2 机 16 卡、4 机 32 卡),OneFlow 在 BERT-base pretrain 模型上的吞吐率均高于其他框架。而且,随着硬件数量的增加,这种优势变得越来越明显。

下图展示了 4 个框架实现在 BERT-base 模型上(FP32 batch size = 32)的加速比对比情况:
 


此外,在 FP32 batch size = max、FP32 batch size = 64 的情况下,OneFlow 在 BERT-base pretrain 模型上也展现出了类似的性能

除了 Float32,评测者还测试了自动混合精度下各个框架的表现。

从上图可以看出,无论是何种情况( 1 机 1 卡、1 机 8 卡、2 机 16 卡、4 机 32 卡),在自动混合精度下,OneFlow 在 BERT-base 模型上的吞吐率均高于其他框架。而且,随着硬件数量的增加,这种优势变得越来越明显。

下图展示了 4 个框架实现在 BERT-base 模型上(AMP batch size = max)的加速比对比情况:
 

测评总结

根据上述性能测试结果,评测者得出结论:在 ResNet50 和 BERT-base 两个模型中,无论是 Float32 类型还是自动混合精度,OneFlow 的性能表现都优于其他各个框架。

在复现各个框架的性能评测过程中,评测者对比了 OneFlow 框架和其他框架的性能差异以及复现难易程度,总结了一些优缺点。

其他框架的常见缺陷

在评测过程中,评测者发现:

  1. 很多框架的数据读取 pipeline 性能存在瓶颈,尤其是 CNN 网络的 AMP 训练,常常依赖 DALI 才能达到理想的性能结果。

  2. 在多卡训练时,其他官方框架和官方提供的模型脚本的默认配置一般跑不出最好的吞吐率,经常需要修改数据读取的参数(如 PyTorch 的 worker 数量)并测试多次才能找到最佳的配置参数。

  3. 有些框架的分布式性能表现不如 Horovod。

  4. 很多框架和模型脚本实现的分布式训练易用性不够好,常常需要测试工程师进行额外的踩坑和脚本修复、第三方依赖安装才能完成分布式训练,有些框架的官方脚本只支持单机,多机即使经过调试、修改代码也难以运行成功。


OneFlow 的优势

评测者还总结了 OneFlow 的优势:

  1. OneFlow 分布式训练非常易用。

  2. OneFlow 不需要依赖 DALI 和 Horovod 就可以实现优秀的分布式训练性能。

  3. OneFlow 多卡训练不需要调试参数,就可以在各种情况下达到最快。


除评测过程、结果等信息以外,该报告还总结了各个框架性能评测复现的踩坑经验,更多内容参见原报告。

如想了解OneFlow是怎么实现评测中卓越性能的,请点击这里


如想了解 OneFlow 的基础原理,请点击这里

如想了解 OneFlow 的实现细节,请点击下方文章

产业PyTorchTensorFlow深度学习框架机器学习一流科技
相关数据
字节跳动机构

北京字节跳动科技有限公司成立于2012年,是最早将人工智能应用于移动互联网场景的科技企业之一,是中国北京的一家信息科技公司,地址位于北京市海淀区知春路甲48号。其独立研发的“今日头条”客户端,通过海量信息采集、深度数据挖掘和用户行为分析,为用户智能推荐个性化信息,从而开创了一种全新的新闻阅读模式

bytedance.com
收敛技术

在数学,计算机科学和逻辑学中,收敛指的是不同的变换序列在有限的时间内达到一个结论(变换终止),并且得出的结论是独立于达到它的路径(他们是融合的)。 通俗来说,收敛通常是指在训练期间达到的一种状态,即经过一定次数的迭代之后,训练损失和验证损失在每次迭代中的变化都非常小或根本没有变化。也就是说,如果采用当前数据进行额外的训练将无法改进模型,模型即达到收敛状态。在深度学习中,损失值有时会在最终下降之前的多次迭代中保持不变或几乎保持不变,暂时形成收敛的假象。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

推荐文章
暂无评论
暂无评论~