苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用

WBOY
WBOY 转载
2023-09-08 11:25:08 211浏览

Code Llama一出,大家都期待有人能继续进行量化瘦身,幸好它可以在本地运行

果然是llama.cpp作者Georgi Gerganov出手了,但他这回不按套路出牌:

在不进行量化的情况下,即使使用FP16精度,Code LLama的34B代码也能在苹果电脑上运行,并且推理速度超过每秒20个token

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

现在只需使用具有800GB/s带宽的M2 Ultra,就可以完成原本需要4个高端GPU才能完成的任务,而且编写代码的速度也非常快

老哥随后揭示了秘诀,答案非常简单,就是进行投机采样(speculative sampling/decoding)

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

触发了许多行业大咖的关注

OpenAI创始成员Andrej Karpathy评价这是一种非常出色的推理时优化,并给出了更多技术解读。

范麟熙,一位英伟达科学家,也认为这是每个从事大模型工作的人都应该熟悉的技巧

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

GPT-4也在用的方法

在使用投机采样的人不仅限于本地运行大型模型的人,谷歌和OpenAI等超级巨头也在使用该技术

根据之前泄露的资料,GPT-4就用了这个方法来降低推理成本,不然根本承受不起这么烧钱。

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

而最新爆料表示谷歌DeepMind联手开发的下一代大模型Gemini很可能也会用。

尽管OpenAI的具体方法保密,但谷歌团队已经发布了相关论文,并且该论文入选了ICML 2023口头报告

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

方法很简单,先训练一个与大模型近似、更便宜的小模型,让小模型先生成K个token,然后让大模型去做评判。

大模型可以直接使用已接受的部分,并由大模型修改不接受的部分

在原始的研究中,使用了T5-XXL模型进行演示,并且在保持生成结果不变的情况下,获得了2-3倍的推理加速

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

Andjrey Karpathy把这个方法比喻成“先让小模型打草稿”。

他解释了这个方法有效的关键之处在于,将大型模型分别输入一个token和一批token,预测下一个token所需的时间几乎相同

每个token都依赖于前一个token,因此在正常情况下无法同时对多个token进行采样

小模型虽然能力较差,但实际生成一个句子时有很多部分是非常简单的,小模型也能胜任,只有遇到困难的部分再让大模型上就好了。

原论文指出,可以直接加速现有的成熟模型,而无需改变其结构或重新进行训练

对于不会降低精度这一点,在论文附录部分也给出了数学论证。

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

了解了原理,再来看Georgi Gerganov这次的具体设置。

他使用4bit量化的7B模型作为“草稿”模型,每秒约能生成80个token。

FP16精度的34B模型单独使用时,每秒只能生成10个token

在使用投机采样方法之后,我们获得了2倍的加速效果,这与原论文中的数据相一致

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

他额外表示,速度可能会根据生成的内容而有所不同,但在代码生成上非常有效,草稿模型能猜对大多数token。

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

最后,他还建议Meta以后在发布模型时直接把小的草稿模型附带上吧,受到大伙好评。

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

作者已创业

Georgi Gerganov是作者,他在今年三月将LlaMA的第一代移植到了C++上。他的开源项目llama.cpp已经获得了接近4万颗星星

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

他最初只是把这个当作一个业余兴趣,但由于反响热烈,他在6月份宣布创业

新公司ggml.ai致力于在边缘设备上运行AI。该公司的主打产品是llama.cpp背后的C语言机器学习框架

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

在创业初期,我们成功获得了来自GitHub前首席执行官Nat Friedman和Y Combinator合伙人Daniel Gross的种子前投资

LlaMA2发布后他也很活跃,最狠的一次直接把大模型塞进了浏览器里。

苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用图片

请查看谷歌的投机采样论文:https://arxiv.org/abs/2211.17192

参考链接:[1]https://x.com/ggerganov/status/1697262700165013689 [2]https://x.com/karpathy/status/1697318534555336961


以上就是苹果芯跑大模型不用降计算精度,投机采样杀疯了,GPT-4也在用的详细内容,更多请关注php中文网其它相关文章!

声明:本文转载于:51CTO.COM,如有侵犯,请联系admin@php.cn删除