首页 > 科技周边 > 人工智能 > 微软首次推出27亿参数的Phi-2模型,性能超过许多大型语言模型

微软首次推出27亿参数的Phi-2模型,性能超过许多大型语言模型

WBOY
发布: 2023-12-14 23:17:47
转载
1278 人浏览过

微软发布了一款名为Phi-2的人工智能模型,该模型表现出了不凡的能力,其性能可媲美甚至超越规模是其25倍的、更大、更成熟的模型。

最近微软在一篇博文中宣布Phi-2是一个拥有27亿参数的语言模型,相比其他基础模型,Phi-2表现出先进的性能,特别是在复杂的基准测试中,这些测试评估了推理、语言理解、数学、编码和常识能力。现在Phi-2已经通过微软Azure人工智能工作室的模型目录发布,这意味着研究人员和开发人员可以将其集成到第三方应用程序中

Phi-2是由微软首席执行官Satya Nadella在11月份的Ignite大会上首次发布的。该产品的强大功能来自于微软所称的“教科书质量”数据,这些数据是专门为知识而设计的,并且还借鉴了其他模型的洞见技术

Phi-2 的独特之处在于,以往大型语言模型的能力常常与其参数规模密切相关。一般来说,参数越多的模型意味着更强大的能力。然而,Phi-2 的出现改变了这一传统观念

微软表示,Phi-2在一些基准测试中展示了与更大型的基础模型相当甚至超越它们的能力。这些基准测试包括了Mistral AI的70亿参数的Mistral、Meta Platforms公司的130亿参数的Llama 2,甚至在一些基准测试中超过了700亿参数的Llama-2

一个令人惊讶的说法可能是,它的性能甚至超过了谷歌的Gemini Nano,后者是上周发布的Gemini系列中效率最高的一款。Gemini Nano专为设备上的任务而设计,可以在智能手机上运行,实现文本摘要、高级校对、语法修正以及上下文智能回复等功能

微软的研究人员说,Phi-2涉及的测试非常广泛,包括语言理解、推理、数学、编码挑战等。

微软首次推出27亿参数的Phi-2模型,性能超过许多大型语言模型

该公司表示,Phi-2之所以能取得如此优异的成绩,是因为它是用精心挑选的教科书级数据训练而成,这些数据旨在教授推理、知识和常识,这意味着它可以从更少的信息中学到更多的东西。微软的研究人员还使用了一些技术,允许从更小的模型中获取知识。

研究人员指出,值得注意的是,Phi-2在不使用基于人类反馈的强化学习或教学性微调等技术的情况下,仍然能够实现强大的性能。这些技术通常用于改善人工智能模型的行为。尽管没有使用这些技术,但与其他使用了这些技术的开源模型相比,Phi-2在减少偏见和有害内容方面仍然表现出色。该公司认为这是因为数据整理的定制化工作所起到的作用

微软首次推出27亿参数的Phi-2模型,性能超过许多大型语言模型

微软研究人员称Phi-2是“小型语言模型(SLM)”系列的最新版本。Phi-1是该系列的第一个模型,今年早些时候首次发布,它拥有13亿个参数,并针对基本的Python编码任务进行了微调。今年9月,微软公司推出了Phi-1.5,该模型拥有13亿个参数,并使用了新的数据源进行训练,其中包括用自然语言编程生成的各种合成文本

微软表示,Phi-2的高效性使其成为研究人员探索增强人工智能安全性、可解释性和语言模型道德发展等领域的理想平台。

以上是微软首次推出27亿参数的Phi-2模型,性能超过许多大型语言模型的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板