Maison > web3.0 > le corps du texte

NVIDIA présente les microservices NIM pour l'IA générative au Japon et à Taiwan

WBOY
Libérer: 2024-08-27 15:47:16
original
697 Les gens l'ont consulté

Alvin Lang 27 août 2024 02:52 NVIDIA lance des microservices NIM pour prendre en charge l'IA générative au Japon et à Taiwan, en améliorant les modèles linguistiques régionaux et les applications d'IA locales.

NVIDIA présente les microservices NIM pour l'IA générative au Japon et à Taiwan

NVIDIA a introduit ses microservices NIM pour les applications d'IA générative au Japon et à Taiwan, dans le but de renforcer les modèles linguistiques régionaux et de soutenir le développement d'applications d'IA générative.

Annoncés samedi dans un article de blog NVIDIA, les nouveaux microservices sont conçus pour aider les développeurs à créer et à déployer des applications d'IA génératives sensibles aux langues locales et aux nuances culturelles. Les microservices prennent en charge des modèles communautaires populaires, améliorant les interactions des utilisateurs grâce à une meilleure compréhension et des réponses basées sur les langues régionales et le patrimoine culturel.

Selon ABI Research, les revenus des logiciels d'IA générative dans la région Asie-Pacifique devraient atteindre 48 milliards de dollars d'ici 2030, contre 5 milliards de dollars en 2024. Les nouveaux microservices de NVIDIA devraient jouer un rôle important dans cette croissance en fournissant des outils avancés pour Développement de l'IA.

Parmi les nouvelles offres figurent les modèles Llama-3-Swallow-70B et Llama-3-Taiwan-70B, formés respectivement sur les données japonaises et mandarines. Ces modèles sont conçus pour fournir une compréhension plus approfondie des lois, réglementations et coutumes locales.

La famille de modèles RakutenAI 7B, construite sur Mistral-7B, a été formée sur des ensembles de données anglais et japonais et est disponible sous forme de microservices NIM pour les fonctionnalités Chat et Instruct. Ces modèles ont obtenu les meilleurs scores moyens parmi les grands modèles de langage japonais ouverts dans le benchmark LM Evaluation Harness de janvier à mars 2024.

Plusieurs organisations au Japon et à Taiwan utilisent déjà les microservices NIM de NVIDIA pour développer et déployer des applications d'IA générative.

Par exemple, l'Institut de technologie de Tokyo a affiné le modèle Llama-3-Swallow 70B à l'aide de données en langue japonaise. Preferred Networks, une société japonaise d'IA, utilise ce modèle pour développer une IA spécifique aux soins de santé, formée sur des données médicales japonaises, obtenant les meilleurs scores à l'examen national japonais pour les médecins.

À Taïwan, l'hôpital Chang Gung Memorial construit un service d'inférence d'IA personnalisé pour héberger de manière centralisée les applications LLM au sein du système hospitalier, en utilisant le modèle Llama-3-Taiwan 70B pour améliorer la communication médicale. Pegatron, un fabricant d'électronique basé à Taiwan, adopte ce modèle pour les applications internes et externes, en l'intégrant à son système d'IA agentique PEGAAi pour améliorer l'efficacité de la fabrication et des opérations.

Les développeurs peuvent désormais déployer ces modèles d'IA souverains, conditionnés sous forme de microservices NIM, en production à grande échelle tout en améliorant les performances. Les microservices, disponibles avec NVIDIA AI Enterprise, sont optimisés pour l'inférence avec la bibliothèque open source NVIDIA TensorRT-LLM, offrant un débit jusqu'à 5 fois supérieur et réduisant le coût total d'exécution des modèles en production.

Les nouveaux microservices NIM sont disponibles aujourd'hui sous forme d'interfaces de programmation d'applications (API) hébergées.

Pour en savoir plus sur la façon dont NVIDIA NIM peut accélérer les résultats de l'IA générative, visitez la page produit ici.

Les modèles d'IA générative, tels que les LLM, ont gagné en popularité en raison de leur capacité à effectuer diverses tâches, notamment la génération de texte, de code, d'images et de vidéos. Cependant, le déploiement de ces modèles peut s'avérer difficile, en particulier pour les organisations qui exigent des résultats rapides et précis.

Pour répondre à ce besoin, NVIDIA propose une gamme de solutions, notamment la plate-forme logicielle NVIDIA AI Enterprise et NVIDIA AI Registry, qui assurent la sécurité, l'optimisation des performances et la gestion centralisée des modèles d'IA génératifs.

Grâce à ces solutions, les organisations peuvent déployer des modèles rapidement et efficacement, garantissant des performances et une fiabilité optimales pour leurs applications.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:php.cn
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!