Maison > Périphériques technologiques > IA > Baichuan Intelligent a publié le modèle d'IA Baichuan-13B, affirmant que « 13 milliards de paramètres sont open source et peuvent être utilisés commercialement »

Baichuan Intelligent a publié le modèle d'IA Baichuan-13B, affirmant que « 13 milliards de paramètres sont open source et peuvent être utilisés commercialement »

王林
Libérer: 2023-07-19 20:37:09
avant
712 Les gens l'ont consulté

IT Home a rapporté le 11 juillet que Baichuan Intelligence, une filiale de Wang Xiaochuan, avait publié aujourd'hui le grand modèle Baichuan-13B, qui serait « open source de 13 milliards de paramètres et disponible dans le commerce ».

百川智能发布Baichuan-13B AI模型,号称“130亿参数开源可商用”

▲ Source de l'image Page GitHub Baichuang-13B

Selon l'introduction officielle, Baichuan-13B est un modèle de langage à grande échelle open source disponible dans le commerce contenant 13 milliards de paramètres développé par Baichuan Intelligence après Baichuan-7B. Il a obtenu les meilleurs résultats parmi les modèles de même taille en chinois et en chinois. Repères anglais. Cette version comprend deux versions : pré-formation (Baichuan-13B-Base) et alignement (Baichuan-13B-Chat).

百川智能发布Baichuan-13B AI模型,号称“130亿参数开源可商用”

▲ Source de l'image Page GitHub Baichuang-13B

A affirmé officiellement que Baichuan-13B possède les caractéristiques suivantes :

  • Plus grande taille, plus de données : Baichuan-13B a ​​encore augmenté le nombre de paramètres à 13 milliards sur la base de Baichuan-7B et a formé 1,4 billion de jetons sur un corpus de haute qualité, dépassant de 40 % LLaMA-13B. Le modèle avec la plus grande quantité de données d’entraînement à la taille 13 B. Prend en charge les langues chinoise et anglaise, utilise le codage de position ALiBi et la longueur de la fenêtre contextuelle est de 4096.
  • Modèles de pré-formation et d'alignement open source à la fois : le modèle de pré-formation est une « base » pour les développeurs, alors que la majorité des utilisateurs ordinaires ont des besoins plus forts en modèles d'alignement avec fonctions de dialogue. Par conséquent, le projet dispose également d'un modèle d'alignement (Baichuan-13B-Chat), qui possède de fortes capacités conversationnelles. Il peut être utilisé immédiatement et peut être facilement déployé avec quelques lignes de code.
  • Raisonnement plus efficace : afin de prendre en charge l'utilisation d'un plus large éventail d'utilisateurs, le projet a également open source les versions quantifiées de int8 et int4. Par rapport à la version non quantifiée, cela réduit considérablement le seuil de ressources machine pour le déploiement avec. presque aucune perte d'effet et peut être déployé sur des cartes graphiques grand public telles que NVIDIA RTX3090.
  • Open source, gratuit pour un usage commercial : Baichuan-13B est non seulement entièrement ouvert à la recherche universitaire, mais les développeurs peuvent également l'utiliser gratuitement après avoir postulé par e-mail et obtenu une licence commerciale officielle.

Actuellement, le modèle a été publié sur HuggingFace, GitHub et Model Scope. Les amis IT Home intéressés peuvent aller en savoir plus.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:sohu.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal