给 Llama 2(羊驼)大模型剪一剪驼毛,会有怎样的效果呢?今天普林斯顿大学陈丹琦团队提出了一种名为 LLM-Shearing 的大模型剪枝法,可以用很小的计算量和成本实现优于同等规模模型的性能。
论文地址: https://arxiv.org/abs/2310.06694 代码地址: https://github.com/princeton-nlp/LLM-Shearing ModelsSheared-LLaMA-1.3B, Sheared-LLaMA-2.7B
第一阶段将 M_S 剪枝为 M_T,虽然这样减少了参数数量,但不可避免地导致性能下降; 第二阶段持续预训练 M_T,使其性能更强。