Maison > Périphériques technologiques > IA > Les processeurs Intel Meteor Lake équipés de NPU propulseront les PC dans l'ère de l'intelligence artificielle

Les processeurs Intel Meteor Lake équipés de NPU propulseront les PC dans l'ère de l'intelligence artificielle

王林
Libérer: 2023-09-22 14:57:03
avant
819 Les gens l'ont consulté

IT House News le 20 septembre, Intel a annoncé aujourd'hui le dernier processeur Meteor Lake et a présenté en détail le NPU intégré de Meteor Lake.

英特尔 Meteor Lake 处理器搭载 NPU,将推动 PC 进入人工智能时代

Intel a déclaré qu’Al pénétrait dans tous les aspects de la vie des gens. Bien que l’IA cloud offre une puissance de calcul évolutive, il existe également certaines limites. Il repose sur des connexions réseau, présente une latence plus élevée, est plus coûteux à mettre en œuvre et présente également des problèmes de confidentialité. MeteorLake introduit Al sur les PC clients, fournit des calculs Al à faible latence, peut mieux protéger la confidentialité des données et y parvient à moindre coût

Intel a déclaré : À partir de MeteorLake, Intel introduira largement Al dans les PC, conduisant des centaines de millions de PC dans l'ère Al, et l'immense écosystème x86 fournira une large gamme de modèles et d'outils logiciels.

IT Home fournit une explication détaillée de l'architecture Intel NPU : IT House a récemment mené une analyse détaillée de l'architecture NPU d'Intel. Dans cet article, nous aborderons divers aspects de l’architecture NPU d’Intel. Premièrement, l'Intel NPU est un processeur spécialement conçu pour les tâches d'intelligence artificielle. Il dispose de capacités de calcul hautement parallèles et peut traiter rapidement de grandes quantités de données. Par rapport aux processeurs traditionnels, les NPU sont plus performants dans le traitement des algorithmes d’IA complexes. Deuxièmement, l'architecture Intel NPU utilise la technologie d'apprentissage profond pour apprendre et optimiser automatiquement les algorithmes. Il peut améliorer la précision et l'efficacité de l'algorithme grâce à de grandes quantités de données d'entraînement. Cela le rend largement utilisé dans des domaines tels que la reconnaissance d’images, la reconnaissance vocale et le traitement du langage naturel. De plus, l'architecture Intel NPU est très flexible et évolutive. Il peut être intégré de manière transparente à d’autres périphériques matériels et plates-formes logicielles, offrant ainsi aux développeurs plus de choix et de liberté. Cela permet aux développeurs de personnaliser et d'optimiser les algorithmes en fonction de besoins spécifiques, obtenant ainsi de meilleures performances et de meilleurs résultats. Dans l'ensemble, l'architecture Intel NPU est une architecture de processeur avancée qui fournit une puissance de calcul puissante et la capacité d'optimiser les algorithmes pour les tâches d'intelligence artificielle. Il a de larges perspectives d’application dans divers domaines et apportera davantage de possibilités et d’opportunités au développement de la technologie de l’intelligence artificielle

Interface hôte et gestion des périphériques - La zone de gestion des périphériques prend en charge le nouveau modèle de pilote de Microsoft appelé Microsoft Computing Driver Model (MCDM). Cela permet aux NPU de Meteor Lake de prendre en charge MCDM de manière supérieure tout en garantissant la sécurité, tandis que l'unité de gestion de la mémoire (MMU) assure l'isolation dans plusieurs scénarios et prend en charge la planification de l'alimentation et de la charge de travail, permettant une conversion rapide des états de faible consommation.

Architecture multimoteur - NPU se compose d'une architecture multimoteur équipée de deux moteurs de calcul neuronal qui peuvent gérer conjointement une seule charge de travail ou chacun gérer des charges de travail différentes. Dans le moteur de calcul neuronal, il existe deux composants informatiques principaux. L'un est le pipeline d'inférence : il s'agit du principal moteur du calcul économe en énergie et gère les grands calculs courants en minimisant le mouvement des données et en exploitant les opérations à fonction fixe. dans l'exécution de réseaux neuronaux. La grande majorité des calculs s'effectuent dans le pipeline d'inférence, un matériel de pipeline à fonction fixe qui prend en charge les opérations de réseau neuronal standard. Le pipeline se compose d'un tableau d'opérations de multiplication-accumulation (MAC), d'un bloc fonctionnel d'activation et d'un bloc de conversion de données. Le second est SHAVEDSP - un VLIW DSP (Very Long Instruction Word/Digital Signal Processor) hautement optimisé conçu spécifiquement pour Al. Le Streaming Hybrid Architecture Vector Engine (SHAVE) peut être pipeline avec des pipelines d'inférence et des moteurs d'accès direct à la mémoire (DMA) pour permettre un calcul véritablement hétérogène en parallèle sur le NPU afin d'optimiser les performances.

Moteur DMA —— Ce moteur optimise et orchestre le mouvement des données pour une efficacité énergétique et des performances maximales.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:sohu.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal