L’arme ultime d’AMD est là !
Le 13 juin, heure de l'Est, AMD a annoncé lors de la « Première du centre de données AMD et de la technologie d'intelligence artificielle » qu'elle lancerait la puce GPU MI300X d'intelligence artificielle la plus avancée à ce jour, qui peut accélérer l'utilisation de ChatGPT et d'autres chatbots. vitesses de traitement et peut utiliser jusqu’à 192 Go de mémoire.
En revanche, la puce H100 de NVIDIA ne prend en charge que 120 Go de mémoire. Le marché estime généralement que cela signifie que la position dominante de NVIDIA sur ce marché émergent pourrait être remise en question. Le MI300X sera expédié à certains clients plus tard cette année.
Bien que les investisseurs s'attendent à ce qu'AMD rivalise avec NVIDIA dans le domaine des puces d'intelligence artificielle, Les analystes n'ont pas suivi la tendance et ont balayé cette arme puissante d'AMD, mais ont souligné de manière rationnelle qu'AMD voulait rivaliser avec NVIDIA dans le domaine des puces d'intelligence artificielle. Il y a encore un long chemin à parcourir pour devenir le leader de l'industrie, et cette puce à elle seule ne peut pas y parvenir.
Chris Danely, analyste des puces chez Citi, a déclaré dans le dernier rapport que la puce MI300 d'AMD semble avoir remporté une énorme victoire en matière de conception, mais étant donné les limitations de performances et l'historique des échecs, il a exprimé des doutes sur la durabilité des circuits intégrés graphiques/CPU, "bien que douteux". nous nous attendons à ce qu'AMD continue de gagner des parts de marché face à Intel, ses nouveaux produits Genoa semblent croître à un rythme plus lent que prévu.
Le même jour, Karl Freund, fondateur et analyste en chef de Cambrian-AI Research LLC, a également écrit dans Forbes que Bien que la puce récemment lancée par AMD ait suscité un énorme intérêt de la part de toutes les parties du marché, par rapport à la puce H100 de Nvidia, le MI300X fait face à quelques défis, principalement dans les quatre aspects suivants :
NVIDIA commence aujourd'hui la livraison complète du H100, et la société possède de loin le plus grand écosystème de logiciels et de chercheurs du secteur de l'IA.
Deuxièmement, bien que la puce MI300X offre 192 Go de mémoire, Nvidia va bientôt rattraper son retard à ce stade, et pourrait même le dépasser dans le même laps de temps, ce n'est donc pas un gros avantage. Le MI300X sera très cher et n'aura pas d'avantage de coût significatif par rapport au H100 de Nvidia.
La troisième est la vraie clé : le MI300 ne dispose pas de Transformer Engine (une bibliothèque pour accélérer les modèles Transformer sur les GPU NVIDIA) comme le H100, qui peut doubler les performances des grands modèles de langage (LLM). S'il faut un an pour former un nouveau modèle avec des milliers de GPU (NVIDIA), alors la formation avec le matériel AMD peut prendre encore 2 à 3 ans, ou investir 3 fois plus de GPU pour résoudre le problème.
Enfin, AMD n’a encore divulgué aucun benchmark. Mais les performances lors de la formation et de l’exécution de LLM dépendent de la conception du système et du GPU. J’ai donc hâte de voir des comparaisons avec les concurrents du secteur plus tard cette année.
Cependant, Freund a également ajouté que le MI300X pourrait devenir une alternative à la super puce GH200 Grace Hopper de Nvidia. Des entreprises comme OpenAI et Microsoft ont besoin de telles alternatives, et même s'il doute qu'AMD fasse à ces entreprises une offre qu'elles ne peuvent pas refuser, AMD ne retirera pas beaucoup de parts de marché à Nvidia.
Le cours de l'action AMD a augmenté de 94 % depuis le début de cette année, la bourse américaine a clôturé en baisse de 3,61 %, tandis que son homologue Nvidia a clôturé en hausse de 3,90 %, sa valeur marchande clôturant pour la première fois au-dessus de la barre des 1 000 milliards de dollars. temps.
En fait, Nvidia est en avance non seulement grâce à ses puces, mais aussi grâce aux outils logiciels qu'ils fournissent aux chercheurs en IA depuis plus d'une décennie. Anshel Sag, analyste chez Moor Insights & Strategy, a déclaré : « Même si AMD est compétitif en termes de performances matérielles, les gens ne sont toujours pas convaincus que ses solutions logicielles puissent rivaliser avec Nvidia. »
Cela devrait favoriser une saine concurrence entre les entreprises technologiquesLe critique technologique américain Billy Duberstein a souligné le 12 qu'avec la popularité de ChatGPT, l'IA semble avoir ouvert un nouveau domaine et qu'une compétition a commencé entre les principales entreprises de nombreux secteurs pour conquérir des parts de marché.
Que NVIDIA ou AMD remporte cette course, toutes les entreprises technologiques en bénéficieront.
Duberstein a déclaré que les clients potentiels sont très intéressés par le MI300. Selon un article du Digital Times du 8 juin qu’il a cité, les clients des centres de données recherchent désespérément des alternatives aux produits Nvidia. Nvidia occupe actuellement une position dominante sur le marché à fort profit et à forte croissance des GPU d'intelligence artificielle, représentant 60 à 70 % de part de marché dans le domaine des serveurs d'IA.Duberstein a poursuivi en soulignant qu'étant donné le prix élevé actuel des serveurs Nvidia H100, les opérateurs de centres de données aimeraient voir Nvidia avoir un concurrent tiers, ce qui contribuerait à réduire le prix des puces IA. C'est donc un énorme avantage pour AMD et un défi pour Nvidia. Cela peut conduire à une bonne rentabilité pour chaque acteur du marché.
Le mois dernier, l'analyste de Morgan Stanley, Joseph Moore, a ajusté ses prévisions concernant les revenus de l'intelligence artificielle d'AMD, affirmant qu'ils pourraient être « plusieurs fois » plus élevés que prévu initialement.
Les entreprises chinoises en compétition pour la chaîne industrielle GPU AI devraient continuer à en bénéficier
Actuellement, les grandes entreprises technologiques du monde entier se disputent les billets d’entrée à l’IA. Par rapport aux géants étrangers, les grandes entreprises technologiques chinoises sont plus pressées d'acheter des GPU.
Selon "LatePost", après la Fête du Printemps de cette année, les grandes sociétés Internet chinoises ayant des activités de cloud computing ont passé des commandes importantes auprès de NVIDIA. Byte a commandé plus d'un milliard de dollars de GPU à Nvidia cette année, et la commande d'une autre grande entreprise a également dépassé au moins 1 milliard de yuans. Et les commandes de Byte cette année seulement pourraient être proches du nombre total de GPU commerciaux vendus par NVIDIA en Chine l’année dernière.
Sinolink Securities continue d'être optimiste quant aux nouvelles initiatives d'AMD et continue d'être optimiste quant à la chaîne industrielle de l'IA. L'agence estime que la popularité continue de l'IA générative a entraîné une forte demande pour les puces d'IA. Les prévisions commerciales des centres de données de NVIDIA pour le deuxième trimestre ont dépassé les attentes, et l'utilisation des capacités de 4 nm, 5 nm et 7 nm de TSMC a considérablement augmenté, ce qui en est la meilleure preuve.
Sinolink Securities a souligné que, selon une recherche sur la chaîne industrielle, le principal fabricant de modules optiques et de puces DSP a déclaré que les activités liées à l'IA devraient croître rapidement à l'avenir ; les deuxième et troisième trimestres. Les grandes entreprises ont déclaré qu'au cours du prochain trimestre, la demande de puces de serveur PCIe Retimer s'accélérerait et augmenterait progressivement. On s'attend à ce qu'entre 2024 et 2025, les nouveaux produits de l'industrie de l'IA favorisent le développement de la chaîne industrielle de l'IA et apportent des avantages économiques durables.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!