EfficientNet:重新思考卷积神经网络的模型缩放
卷积神经网络的开发通常受限于固定的资源预算,如果可获得的资源越多,网络实现扩展获得更高准确率。在本文中,研究者系统研究了模型扩展,并证实仔细地平衡网络深度、宽度和分辨率能够实现更好的性能。基于此观察,研究者提出一种新的缩放方法,借助于一个简单但高效的复合系数,这种方法对网络深度、宽度和分辨率进行统一缩放。研究表明,这种方法在扩展MobileNets和ResNet有效。
此外,研究者利用神经架构搜索设计了一种新的基准网络并进行扩展,获得一组模型,被称为EfficientNets,它相较于以前的ConvNets可以实现更高的准确率和效率。具体而言,研究者提出的EfficientNet-B7模型在ImageNet上获得了当前最优的准确率,84.4% top-1/97.1% top-5,同时相较于现有的ConvNet,模型体积缩小8.4倍,推理速度提升6.1倍。EfficientNets模型的迁移效果也很好,在CIFAR-100(准确率91.7%)、Flowers(准确率98.8%)及其他三种迁移学习数据集上实现了SOTA准确率,同时参数也减少了一个数量级。