陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

王林
王林 转载
2023-10-12 14:29:04 328浏览

只用3%的计算量5%的成本取得SOTA,统治了1B-3B规模的开源大模型。

这一成果来自普林斯顿陈丹琦团队,名为LLM-Shearing大模型剪枝法。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

以羊驼LLaMA 2 7B为基础,通过定向结构化剪枝得到1.3B和3B剪枝后的Sheared-LLama模型。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

在下游任务评估上超越之前的同等规模模型,需要进行重写

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

一作夏梦舟表示,“比从头开始预训练划算很多”。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

论文中也给出了剪枝后的Sheared-LLaMA输出示例,表示尽管规模只有1.3B和2.7B,也已经能生成连贯且内容丰富的回复。

相同的“扮演一个半导体行业分析师”任务,2.7B版本的回答结构上还要更清晰一些。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

团队表示虽然目前只用Llama 2 7B版做了剪枝实验,但该方法可以扩展到其他模型架构,也能扩展到任意规模

剪枝后的一个额外好处是,可以选择优质的数据集进行继续预训练

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

有一些开发者表示,就在6个月前,几乎所有人都认为65B以下的模型没有任何实际用途

照这样下去,我敢打赌1B-3B模型也能产生巨大价值,如果不是现在,也是不久以后。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

把剪枝当做约束优化

LLM-Shearing,具体来说是一种定向结构化剪枝,将一个大模型剪枝到指定的目标结构。

之前的修剪方法可能会导致模型性能下降,因为会删除一些结构,影响其表达能力

通过将剪枝视为一种约束优化问题,我们提出了一种新的方法。我们通过学习剪枝掩码矩阵来搜索与指定结构匹配的子网络,并以最大化性能为目标

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

接下来对剪枝过的模型进行继续预训练,在一定程度上恢复剪枝造成的性能损失。

在这个阶段,团队发现剪枝过的模型与从头训练的模型对不同数据集的损失下降速率不一样,产生数据使用效率低下的问题。

为此团队提出了动态批量加载(Dynamic Batch Loading),根据模型在不同域数据上的损失下降速率动态调整每个域的数据所占比例,提高数据使用效率。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

研究发现,尽管剪枝模型与从头训练的同等规模模型相比,初始性能较差,但通过持续预训练可以迅速提升,并最终超越

这表明从强大的基础模型中剪枝,可以为继续预训练提供更好的初始化条件。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

将持续更新,来一个剪一个

论文作者分别为普林斯顿博士生夏梦舟高天宇,清华Zhiyuan Zeng,普林斯顿助理教授陈丹琦

夏梦舟,本科毕业于复旦,硕士毕业于CMU。

高天宇是一位毕业于清华大学的本科生,他在2019年获得了清华特奖

两人都是陈丹琦的学生,而陈丹琦目前是普林斯顿大学的助理教授,也是普林斯顿自然语言处理小组的共同领导者

最近在个人主页中,陈丹琦更新了她的研究方向。

"这段时间主要专注于开发大型模型,研究的主题包括:"

  • 检索如何在下一代模型中发挥重要作用,提高真实性、适应性、可解释性和可信度。
  • 大模型的低成本训练和部署,改进训练方法、数据管理、模型压缩和下游任务适应优化。
  • 还对真正增进对当前大模型功能和局限性理解的工作感兴趣,无论在经验上还是理论上。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

Sheared-Llama已经在Hugging Face上提供

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

团队表示,他们将继续更新开源库

更多大模型发布时,来一个剪一个,持续发布高性能的小模型。

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

One More Thing

不得不说,现在大模型实在是太卷了。

孟州夏刚刚发布了一条更正,表示在写论文时使用的是SOTA技术,但是论文完成后就被最新的Stable-LM-3B技术超越了

陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮

论文地址:https://arxiv.org/abs/2310.06694

Hugging Face:https://huggingface.co/princeton-nlp

项目主页链接:https://xiamengzhou.github.io/sheared-llama/

以上就是陈丹琦团队创新之作:以5%成本取得SOTA,掀起“羊驼剪毛”大法热潮的详细内容,更多请关注php中文网其它相关文章!

声明:本文转载于:51CTO.COM,如有侵犯,请联系admin@php.cn删除