Meta 推出 AI 語言模型 LLaMA,一個有著 650 億參數的大型語言模型

PHPz
發布: 2023-04-14 18:58:01
轉載
1637 人瀏覽過

Meta 推出 AI 語言模型 LLaMA,一個有著 650 億參數的大型語言模型

2 月25 日消息,Meta 在當地時間週五宣布,它將推出一種針對研究社區的基於人工智慧(AI) 的新型大型語言模型,與微軟、谷歌等一眾受到ChatGPT 刺激的公司一同加入人工智慧競賽。

Meta 的 LLaMA 是「大型語言模式 Meta AI」 (Large Language Model Meta AI)的縮寫,它可以在非商業許可下提供給政府、社區和學術界的研究人員和實體工作者。

該公司將提供底層程式碼供用戶使用,因此用戶可以自行調整模型,並將其用於與研究相關的用例。 Meta 表示,該模型對算力的要求「低得多」。

據介紹,該公司正在開發多種參數(7B、13B、33B 和 65B)的 LLaMA。其中,LLaMA 65B 和 LLaMA 33B 在 1.4 兆個 tokens 上訓練,而最小的模型 LLaMA 7B 也經過了 1 兆個 tokens 的訓練。

與其他大型語言模型一樣,LLaMA 的工作原理是將一系列單字作為「輸入」並預測下一個單字以遞歸生成文字。為了這套模型,Meta 從使用人數最多的 20 種語言中選擇文本進行訓練,重點是拉丁語和西里爾字母。

當然,與其他模型一樣,LLaMA 也面臨偏見、有毒評論和幻覺的挑戰,Meta 還需要做更多的研究來解決這類語言模型中的不足。

Meta 表示,LLaMA 作為一個基礎模型被設計成多功能的,可以應用於許多不同的用例,而不是為特定任務設計的微調模型。透過開源 LLaMA 的程式碼,其他研究人員可以更輕鬆地找到限製或消除這些問題的新方法。 Meta 也在本文中提供了一組評估模型偏差和毒性的基準評估標準,以顯示模型的局限性並支持研究人員在這一關鍵領域的進一步研究。

值得一提的是,Meta 在去年 5 月也曾推出大型語言模型 OPT-175B。該專案同樣也是針對研究人員的,這構成了其聊天機器人 blenterbot 新迭代的基礎。

後來,該公司還推出了一款名為「卡拉狄加」(Galactica) 的模型,據稱它可以撰寫科學文章和解決數學問題,但其演示版本後來被下架,因為它反覆產生「聽起來很權威」的內容。

IT之家附官方連結:

#

以上是Meta 推出 AI 語言模型 LLaMA,一個有著 650 億參數的大型語言模型的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!