来自 Facebook AI 的严志程团队发表一种新的神经架构的快速搜索算法。该算法采用自适应架构概率分布熵的架构采样,能够减少采样样本达 60%,加速搜索快 1.8 倍。此外,该算法还包括一种新的基于分解概率分布的由粗到细的搜索策略,进一步加速搜索快达 1.2 倍。该算法搜索性能优于 BigNAS、EfficientNet 和 FBNetV2 等算法。
提出一种新的自适应架构概率分布熵的采样方法,能够减少采样的样本达 60%,加速搜索快 1.8 倍。
提出一种新的基于分解概率分布的由粗到细的搜索策略,进一步加速搜索快达 1.2 倍。
对小模型搜索,FP-NAS 方法比 FBNetV2 方法快 3.5 倍,并且搜索得到的模型精度更高。
在搜索更大的复杂度达到 0.4G FLOPS 的模型时,FP-NAS 比 EfficientNet 快 132 倍,同时搜到的模型 FP-NAS-L0 在 ImageNet 上比 EfficientNet-B0 精度高 0.7%。直接搜索复杂度达到 1.0G FLOPS 的大模型时,FP-NAS 搜到的模型 FP-NAS-L2 精度比 EfficientNet-B2 高 0.4%。
FP-NAS 通过把 Squeeze-Excite 模块替换成 Split-Attention 来扩大搜索空间,同时证明单独搜索各个模型层的 Attention splits 的必要性。
FBNetV2-F space。这是先前 FBNetV2 工作中提出的一个空间,一共包含6×10^25个不同的架构。
FBNetV2-F-Fine space。在这个空间中,每个 MBConv 块允许使用不同的架构。
FBNetV2-F++ space。在这个空间中,原来的 SqueezeExcite 注意力模块被新的 SplitAttention 模块取代。split 的数目选择从原来的 {0, 1} 被扩展到{0, 1, 2, 4}。
FP-NAS space。为了支持搜索更大的神经架构,我们把 FBNetV2-F++ 的搜索宏架构变得更宽更深,同时提高输入图像的分辨率,得到三个更大的 FP-NAS 搜索空间 L0-L2。