Maison > Périphériques technologiques > IA > Avec 35 milliards de paramètres et des poids ouverts, l'auteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

Avec 35 milliards de paramètres et des poids ouverts, l'auteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

王林
Libérer: 2024-03-13 08:58:24
avant
499 Les gens l'ont consulté

Aujourd'hui, Cohere, une startup d'intelligence artificielle cofondée par Aidan Gomez, l'un des auteurs de Transformer, s'est félicitée de la sortie de son propre grand modèle.

Le dernier modèle publié par Cohere s'appelle « Command-R », comporte 35 B de paramètres et est conçu pour gérer des charges de travail de production à grande échelle. Ce modèle entre dans la catégorie « évolutif », avec un équilibre entre haute efficacité et haute précision, aidant les utilisateurs en entreprise à aller au-delà de la preuve de concept vers la production.

Avec 35 milliards de paramètres et des poids ouverts, lauteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

Command-R est un modèle génératif spécifiquement optimisé pour la génération augmentée de récupération (RAG) et d'autres tâches contextuelles longues. En combinant des API et des outils externes, ce modèle vise à améliorer les performances des applications RAG. Il fonctionne avec des modèles d'intégration et de réorganisation de pointe pour offrir des performances exceptionnelles et les meilleures capacités d'intégration de leur catégorie pour les cas d'utilisation en entreprise.

Command-R adopte une architecture de transformateur optimisée et est un modèle de langage autorégressif. Une fois la pré-formation terminée, il est assuré que le modèle est conforme aux préférences humaines grâce à un réglage fin supervisé (SFT) et à une formation aux préférences pour obtenir une meilleure utilité et sécurité.

Plus précisément, Command-R présente les caractéristiques fonctionnelles suivantes :

  • Haute précision dans l'utilisation du RAG et des outils
  • Faible latence, débit élevé
  • Contexte 128k plus long et prix inférieur
  • Fonctionnalité puissante dans 10 langues principales
  • Poids des modèles disponibles sur HuggingFace pour la recherche et l'évaluation

Command-R est actuellement disponible sur l'API gérée de Cohere, avec des plans qui seront bientôt disponibles sur les principaux fournisseurs de cloud. Cette version est la première d'une série de modèles conçus pour faire progresser les fonctionnalités essentielles à l'adoption massive par les entreprises.

Actuellement, Cohere a ouvert des poids modèles sur Huggingface.

Avec 35 milliards de paramètres et des poids ouverts, lauteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

Adresse Huggingface : https://huggingface.co/CohereForAI/c4ai-command-r-v01

Génération d'amélioration de récupération haute performance (RAG) est devenu un modèle clé dans le déploiement de grands modèles de langage. Avec RAG, les entreprises peuvent donner aux modèles accès à des connaissances privées qui autrement ne seraient pas disponibles, rechercher des bases de données privées et utiliser des informations pertinentes pour formuler des réponses, augmentant ainsi considérablement la précision et l'utilité. Les composants clés de RAG sont :

Récupération : recherchez un corpus d'informations pertinentes pour l'utilisateur de la réponse.

  • Génération augmentée : utilisez les informations récupérées pour former des réponses plus éclairées.
  • Pour la récupération, le modèle Embed de Cohere améliore la compréhension contextuelle et sémantique en recherchant des millions, voire des milliards de documents, augmentant considérablement l'utilité et la précision de l'étape de récupération. Dans le même temps, le modèle Rerank de Cohere contribue à augmenter encore la valeur des informations récupérées, en optimisant les résultats pour des mesures personnalisées telles que la pertinence et la personnalisation.

Pour la génération augmentée, en identifiant les informations les plus pertinentes, Command-R peut résumer, analyser et regrouper ces informations, et aider les employés à améliorer l'efficacité du travail ou à créer de nouvelles expériences de produits. Command-R est unique dans le sens où le résultat du modèle est accompagné de citations claires, réduisant le risque d'hallucinations et restituant davantage de contexte à partir du matériel source.

Même sans utiliser ses propres modèles Embed et Rerank, Command-R surpasse les autres modèles de la catégorie des modèles génératifs évolutifs. Mais lorsqu'elles sont utilisées ensemble, l'avance s'étend considérablement, permettant des performances supérieures dans des domaines plus complexes.

L'image ci-dessous à gauche montre Command-R et Mixtral effectuant une évaluation globale des préférences humaines face à face sur une série d'applications RAG liées à l'entreprise, en tenant compte de la maîtrise, de l'aspect pratique des réponses et des citations. Le côté droit de la figure montre les résultats de comparaison de Command-R (Embed+Rerank), Command-R et Llama 2 70B (chat), Mixtral, GPT3.5-Turbo et d'autres modèles sur des benchmarks tels que Natural Questions, TriviaQA et HotpotQA. Le grand modèle de Cohere prend la tête.

Utilisation d'outils puissants

Les grands modèles de langage devraient être des moteurs d'inférence de base capables d'automatiser des tâches et d'entreprendre des actions réelles, et pas seulement des machines qui extraient et génèrent du texte. Command-R atteint cet objectif en utilisant des outils (API) tels que des interpréteurs de code et d'autres outils définis par l'utilisateur qui permettent aux modèles d'automatiser des tâches très complexes.

La fonctionnalité d'utilisation des outils permet aux développeurs d'entreprise de transformer Command-R en un moteur pour prendre en charge les tâches et les flux de travail qui nécessitent l'utilisation d'une « infrastructure interne telle que des bases de données et des outils logiciels » ainsi que « d'outils externes tels que des CRM et des moteurs de recherche ». " automatisation. Cela nous permet d'automatiser des tâches manuelles chronophages qui s'étendent sur plusieurs systèmes et nécessitent un raisonnement et une prise de décision complexes.

L'image ci-dessous montre la comparaison des capacités de raisonnement en plusieurs étapes entre Command-R et Llama 2 70B (chat), Mixtral et GPT3.5-turbo lors de l'utilisation d'outils de recherche. Les ensembles de données utilisés ici sont HotpotQA et Bamboogle.

Avec 35 milliards de paramètres et des poids ouverts, lauteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

Capacités de génération multilingue

Le modèle Command-R est efficace dans 10 principales langues commerciales à travers le monde, dont l'anglais, le français, l'espagnol, l'italien, l'allemand, le portugais, le japonais, le coréen, Arabe et chinois.

De plus, les modèles Embed et Rerank de Cohere prennent en charge nativement plus de 100 langues. Cela permet aux utilisateurs de tirer des réponses à partir d'un large éventail de sources de données, offrant ainsi des conversations claires et précises dans leur langue maternelle, quelle que soit la langue.

L'image ci-dessous montre la comparaison entre Command-R et Llama 2 70B (chat), Mixtral, GPT3.5-turbo sur MMLU multilingue et FLORES.

Avec 35 milliards de paramètres et des poids ouverts, lauteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

Contexte plus long et prix inférieur

Command-R prend en charge une fenêtre de contexte plus longue - 128 000 jetons. La mise à niveau réduit également le prix des API gérées de Cohere et augmente considérablement l’efficacité des déploiements de cloud privé de Cohere. En combinant une fenêtre de contexte plus longue avec une tarification moins chère, Command-R ouvre des cas d'utilisation de RAG où un contexte supplémentaire peut améliorer considérablement les performances.

Avec 35 milliards de paramètres et des poids ouverts, lauteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

Le prix spécifique est le suivant, où la version Command coûte 1 USD pour 1 million de jetons d'entrée et 1 million de jetons de sortie pour 2 USD ; la version Command-R coûte 0,5 USD pour 1 million de jetons d'entrée et 1 ; millions de jetons de sortie.

Avec 35 milliards de paramètres et des poids ouverts, lauteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

Bientôt, Cohere publiera également un court rapport technique pour montrer plus de détails sur le modèle.

Avec 35 milliards de paramètres et des poids ouverts, lauteur de Transformer a lancé un nouveau grand modèle après avoir lancé sa propre entreprise.

Adresse du blog : https://txt.cohere.com/command-r/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal