Mistral AI, la licorne française de benchmarking face à OpenAI, a fait un nouveau pas : Codestral, le premier grand modèle de code, est né.
En tant que modèle d'IA génératif ouvert conçu spécifiquement pour les tâches de génération de code, Codestral aide les développeurs à écrire et à interagir avec le code en partageant des instructions et des points de terminaison d'API d'achèvement. La maîtrise du codage et de l'anglais de Codestral permet aux développeurs de logiciels de concevoir des applications d'IA avancées.
Codestral a une taille de paramètre de 22B et suit la nouvelle licence de non-production Mistral AI. Il peut être utilisé à des fins de recherche et de test, mais l'utilisation commerciale est interdite.
Actuellement, le modèle est disponible en téléchargement sur HuggingFace.
Guillaume Lampe, co-fondateur et scientifique en chef de Mistral AI, a déclaré que Codestral peut être facilement intégré au plug-in VS Code.
Certains utilisateurs ont comparé Codestral à GPT-4o, et Codestral était directement plus rapide que GPT-4o.
Codestral est formé sur un ensemble de données diversifié contenant plus de 80 langages de programmation, notamment Python, Java, C, C++, JavaScript, Bash et d'autres langages de programmation populaires. Il fonctionne également bien sur les langages de programmation tels que Swift et Fortran.
Ainsi, une large base linguistique garantit que Codestral peut aider les développeurs dans une variété d'environnements et de projets de codage.
Codestral peut écrire du code avec compétence, écrire des tests et utiliser le mécanisme de remplissage au milieu pour terminer n'importe quelle partie de code, économisant ainsi du temps et de l'énergie aux développeurs. L'utilisation simultanée de Codestral peut également contribuer à améliorer les compétences de codage des développeurs et à réduire le risque d'erreurs et de bugs.
En tant que modèle de paramètres 22B, Codestral établit une nouvelle norme en termes de performances de génération de code et de marge de latence par rapport aux précédents modèles de code volumineux.
Comme vous pouvez le voir sur la figure 1 ci-dessous, la longueur de la fenêtre contextuelle de Codestral est de 32 Ko, le produit concurrent CodeLlama 70B est de 4 Ko, DeepSeek Coder 33B est de 16 Ko et Llama 3 70B est de 8 Ko. Les résultats montrent que Codestral surpasse les autres modèles sur le benchmark d'évaluation à distance de génération de code RepoBench.
Mistral AI a également comparé Codestral aux modèles spécifiques au code existants, qui nécessitent des exigences matérielles plus élevées.
Performances sur Python. Les chercheurs ont utilisé les benchmarks HumanEval pass@1 et MBPP sanitized pass@1 pour évaluer les capacités de génération de code Python de Codestral. En outre, les chercheurs ont également utilisé les évaluations de benchmark CruxEval et RepoBench EM ;
Performances sur SQL. Pour évaluer les performances de Codestral en SQL, les chercheurs ont utilisé le benchmark Spider.
Performances sur d'autres langages de programmation. Les chercheurs ont également évalué Codestral dans six autres langages de programmation, dont C++, bash, Java, PHP, Typescript et C#, et ont calculé la moyenne de ces évaluations.
Référence FIM. Les chercheurs ont également évalué la capacité de Codestral à compléter le code lorsqu'il y a des lacunes dans les fragments de code, en menant principalement des expériences sur Python, JavaScript et Java. Les résultats ont montré que les utilisateurs peuvent exécuter immédiatement le code complété par Codestral.
Adresse du blog : https://mistral.ai/news/codestral/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!