Maison > Périphériques technologiques > IA > le corps du texte

Stability AI publie un modèle de code 3B stable qui s'exécute localement et ne nécessite pas de GPU

WBOY
Libérer: 2024-01-17 16:03:06
avant
997 Les gens l'ont consulté

Stability AI a récemment publié son premier modèle d'IA en 2024, appelé Stable Code 3B. Ce modèle comporte 3 milliards de paramètres et se concentre sur les tâches de code auxiliaires.

Exécutez nativement sur un ordinateur portable sans avoir besoin d'un GPU dédié, tout en offrant des performances compétitives avec de grands modèles comme le CodeLLaMA 7B de Meta.

Fin 2023, Stability AI a commencé à promouvoir le développement de modèles plus petits, plus compacts et plus puissants, comme le modèle StableLM Zephyr 3B pour la génération de texte.

Début 2024, Stability AI a publié un modèle de langage important appelé Stable Code 3B. En fait, sa version préliminaire, Stable Code Alpha 3B, a été publiée dès août de l'année dernière. Depuis lors, Stability AI a continué à améliorer la technologie. Cette nouvelle version de Stable Code 3B est conçue pour la complétion de code et possède également une variété de fonctionnalités supplémentaires.

Comparé à CodeLLaMA 7b, Stable Code 3B est 60 % plus petit en taille, mais atteint des performances comparables au premier sur les tâches de programmation.

Stability AI发布Stable Code 3B模型,没有GPU也能本地运行

Stable Code 3B atteint des performances SOTA (par rapport à des modèles de taille similaire) sur le benchmark MultiPL-E, comme Stable Code 3B sur les langages de programmation Python, C++, JavaScript, Java, PHP et Rust Les performances sont meilleures que StarCoder.

Stability AI发布Stable Code 3B模型,没有GPU也能本地运行

Introduction à la recherche

Stable Code 3B est formé sur la base de Stable LM 3B, qui a un nombre de jetons de formation allant jusqu'à 4 000 milliards. De plus, Stable Code utilise également des données spécifiques au génie logiciel pour la formation.

Stable Code 3B offre plus de fonctionnalités, fonctionne bien même dans plusieurs langues et présente également d'autres avantages, tels que la prise en charge de la fonction FIM (Fill in the Middle, une nouvelle technique de formation) et peut être étendu à la taille du contexte. Le code stable de base est formé sur jusqu'à 16 384 séquences de jetons et suit une approche similaire à CodeLlama, c'est-à-dire en utilisant des intégrations rotatives, qui permettent éventuellement de modifier jusqu'à 1 000 000 de bases de rotation. La longueur du contexte du modèle est en outre étendue à 100 000 jetons. .

En termes d'architecture de modèle, le modèle Stable Code 3B est un pur transformateur décodeur, similaire à l'architecture LLaMA, avec les modifications suivantes :

Stability AI发布Stable Code 3B模型,没有GPU也能本地运行

  • Intégration de position : l'intégration de position pivotée est appliquée au head embedding Les premiers 25 % des dimensions pour améliorer le débit ;
  • Tokenizer : utilisez une version modifiée de GPTNeoX Tokenizer.NeoX pour ajouter des jetons spéciaux pour entraîner les fonctions FIM, telles que , , etc.

Training

Training DataSet

Stable Code 3B L'ensemble de données de formation est composé d'une combinaison filtrée d'ensembles de données à grande échelle open source disponibles sur HuggingFace Hub, y compris Falcon RefinedWeb, CommitPackft , Github Issues, StarCoder et complètent davantage la formation avec des données du domaine des mathématiques.

Infrastructure de formation

  • Matériel : Stable Code 3B est formé sur un cluster Stability AI utilisant 256 GPU NVIDIA A100 de 40 Go.
  • Logiciel : Stable Code 3B adopte une branche de gpt-neox, utilise ZeRO-1 pour s'entraîner sous parallélisme 2D (parallélisme de données et tenseur) et s'appuie sur le noyau d'intégration de rotation de flash-attention, SwiGLU et FlashAttention- 2 .

Enfin, jetons un coup d'œil aux performances de Stable Code 3B :

Stability AI发布Stable Code 3B模型,没有GPU也能本地运行

Stability AI发布Stable Code 3B模型,没有GPU也能本地运行

Un rapport technique plus détaillé sur Stable Code 3B sera publié plus tard, vous pouvez l'attendre avec impatience.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal