Maison > Problème commun > le corps du texte

Interprétation de l'intelligence artificielle : étapes clés de la formation et de l'inférence

百草
Libérer: 2024-04-11 15:57:56
original
788 Les gens l'ont consulté

L'intelligence artificielle (IA), l'apprentissage automatique et l'IA générative sont devenus des éléments importants de la boîte à outils technologique des entreprises modernes. L’IA couvre un large éventail de technologies, notamment la traduction linguistique en temps réel, la reconnaissance faciale, les assistants vocaux, les systèmes de recommandation personnalisés et la détection des fraudes. Le processus de formation et d'inférence de l'IA est essentiel pour comprendre les capacités du modèle. La formation implique la formation d'un modèle à l'aide d'un ensemble de données, permettant au modèle d'apprendre des informations traitées et de faire des prédictions ou des décisions. La phase d'inférence applique le modèle formé à de nouvelles données, lui permettant d'effectuer des tâches telles que la reconnaissance d'images, la traduction linguistique ou la prise de décision.

Interprétation de l'intelligence artificielle : étapes clés de la formation et de l'inférence

L'intelligence artificielle, le machine learning et plus récemment l'intelligence artificielle générative font désormais partie de la boîte à outils technologique et méthodologique de toutes les entreprises engagées dans l'innovation numérique. L'intelligence artificielle comprend un large éventail de technologies capables d'effectuer des tâches qui nécessitent généralement l'intelligence humaine, telles que la traduction linguistique en temps réel, la reconnaissance faciale, les assistants vocaux, les systèmes de recommandation personnalisés ou la détection de fraude, ainsi que le diagnostic médical assisté par ordinateur pour identifier les maladies. à partir d'images radiologiques.

Discutons du processus de formation et d'inférence de l'IA pour mieux comprendre les capacités du modèle (*). Diagramme de formation IA

Remarque : les termes marqués (*) sont définis dans la section Glossaire à la fin de cet article.

Formation à l'intelligence artificielle

En bref, la formation à l'intelligence artificielle est le processus de développement d'un modèle d'apprentissage automatique basé sur une grande quantité de données de test.

Il s'agit de nourrir un modèle avec un ensemble de données (*) qui lui permet d'apprendre et de faire des prédictions (*) ou des décisions (*) en fonction des informations qu'il traite. C'est l'étape où le modèle acquiert les connaissances et les compétences nécessaires pour effectuer des tâches spécifiques.

Qu'il s'agisse d'interpréter un langage naturel (*) ou de réaliser des calculs complexes, cette étape est la base. En fait, il détermine la précision, l’efficacité et les performances globales du modèle et donc des applications qui l’utiliseront.

Le processus de formation du modèle IA comporte plusieurs étapes.

1. Préparation des données

Cette étape consiste à collecter, nettoyer et organiser les données dans un format permettant une utilisation efficace. Il est important de garantir la qualité et la fiabilité des données d’entrée du modèle.

2. Algorithmes

La deuxième étape consiste à choisir un algorithme (*) ou une architecture de réseau neuronal (*) approprié qui est le mieux adapté pour résoudre le problème que nous voulons résoudre.

3. Raffinement

Une fois le modèle sélectionné, la troisième étape est le raffinement itératif. Cela implique de former et de tester le modèle plusieurs fois pour ajuster ses paramètres en fonction des performances, améliorer sa précision et réduire les erreurs.

AI Training Class Diagram Image

Formation à l'intelligence artificielle : défis

La formation des modèles d'IA est confrontée à de réels défis tels que :

Qualité des données

Un modèle n'est aussi bon que la qualité des données de formation . Des ensembles de données inexacts, incomplets ou biaisés peuvent conduire à de mauvaises prévisions.

Ressources informatiques

Les ressources informatiques nécessaires à la formation nécessitent une puissance de traitement élevée et de grandes quantités de mémoire, notamment pour les modèles complexes tels que les réseaux de deep learning (*). Des phénomènes tels que le surapprentissage (*) peuvent dégrader la qualité des tâches de prédiction ou de classification.

Pour illustrer les ressources informatiques nécessaires à la formation d'un modèle d'IA, considérons que la formation d'un réseau d'apprentissage profond complexe comme GPT-3 nécessite des quantités massives de puissance de calcul pour intégrer ses 175 milliards de paramètres.

Inférence d'intelligence artificielle

Dans cette étape, un modèle d'apprentissage automatique entraîné (*) est appliqué à de nouvelles données, lui permettant d'effectuer des tâches telles que la prédiction, la classification, la recommandation ou la prise de décisions dans des applications du monde réel.

En d’autres termes, l’inférence est l’étape qui permet à un modèle d’IA de fournir l’avantage escompté, comme l’identification d’objets dans des images, la traduction de langues, la fourniture de recommandations de produits ou le guidage de véhicules autonomes.

Distinguer formation et inférence

Il existe deux critères principaux qui distinguent le processus d'inférence de la formation en IA :

L'importance du traitement des données en temps réel

Le besoin d'efficacité et de faible latence

En pratique , Les systèmes de conduite automatique ou de détection de fraude en temps réel doivent disposer de modèles capables d'interpréter rapidement les nouvelles données et d'agir rapidement.

Défis à surmonter

La phase d'inférence doit se concentrer sur l'efficacité des ressources, le maintien de performances cohérentes dans différents environnements et l'optimisation du modèle en termes de vitesse. Les modèles d’IA doivent être adaptables sans sacrifier la précision ou la fiabilité. Cela nécessite des techniques telles que l'élagage du modèle (*) ou la quantification (*) pour réduire la charge de calcul tout en évitant la dégradation des performances du modèle.

Exemples

Des exemples concrets illustrant l'application pratique de l'inférence sont les suivants :

Cybersécurité

Une fois formée sur un vaste ensemble de données d'interactions par courrier électronique, l'application peut identifier et signaler les menaces potentielles dans les courriers électroniques entrants ou. tentatives de phishing, protégeant ainsi les utilisateurs des menaces de cybersécurité.

Véhicules autonomes

De même, le domaine des véhicules autonomes s'appuie également fortement sur les capacités de raisonnement de l'intelligence artificielle. Dans ce cas, des modèles formés à partir d’innombrables heures de données de conduite sont utilisés en temps réel pour naviguer sur les routes, reconnaître les panneaux de signalisation et prendre des décisions en une fraction de seconde.

Formation vs inférence : analyse comparative

La formation et l'inférence sont deux étapes critiques et complémentaires dans le développement d'un modèle d'IA, chacune répondant à des besoins spécifiques. La phase de formation permet au modèle d'acquérir des connaissances à partir de données historiques. Cette étape nécessite beaucoup de puissance de calcul pour ajuster les paramètres du modèle afin d’obtenir des prédictions précises.

L'inférence, quant à elle, applique des modèles entraînés à de nouvelles données pour faire des prédictions ou des décisions en temps réel, soulignant l'importance de l'efficacité et d'une faible latence.

Points à retenir

Équilibrer la complexité du modèle, la formation complète et l'efficacité de l'inférence est essentiel pour le développement de systèmes d'intelligence artificielle.

Les modèles complexes peuvent mieux comprendre et prédire, mais nécessitent plus de ressources pour la formation et l'inférence.

Les développeurs doivent générer un modèle suffisamment complexe, suffisamment précis et suffisamment efficace pour être utilisé en temps réel.

Des techniques telles que l'élagage, la quantification et l'apprentissage par transfert peuvent optimiser les modèles en termes de précision et d'efficacité.

Exigences en matière d'infrastructure

Les exigences en matière d'infrastructure pour les phases de formation et d'inférence entraînent une forte dépendance aux performances du matériel.

La formation de modèles d'apprentissage profond est extrêmement gourmande en calcul et nécessite des ressources dédiées pour fournir une puissance de calcul puissante. Cette étape nécessite souvent des GPU hautes performances pour gérer de grands ensembles de données, dont dépendent la précision et l'efficacité du modèle.

En revanche, la phase d'inférence nécessite moins de puissance de calcul mais nécessite des performances à faible latence et à haut débit. Son infrastructure a besoin d'efficacité et de réactivité pour permettre un traitement de données en temps réel à proximité de la source de génération de données, comme les voitures autonomes ou nos serveurs de messagerie, mais aussi pour introduire un nouvel exemple dans le diagnostic des soins de santé.

Conclusion

Comprendre les subtilités de la formation et de l'inférence de l'IA révèle les complexités entre l'acquisition de connaissances via des modèles d'IA et le déploiement de ces connaissances dans des applications concrètes.

L'intelligence artificielle doit être non seulement puissante, mais aussi adaptable. Pour atteindre cet objectif, un équilibre doit être trouvé entre l’utilisation de ressources de formation étendues et la nécessité d’une inférence rapide et efficace. À mesure que l’IA progresse dans des domaines tels que la santé, la finance et l’industrie, ces étapes de formation et d’inférence sont essentielles car elles permettent la création d’une IA appliquée à des analyses de rentabilisation spécifiques.

Encore une chose...

Qu'en est-il de l'empreinte carbone ?

Pour faire progresser l'apprentissage automatique et l'intelligence artificielle, il est clairement nécessaire de se concentrer sur le développement de modèles d'intelligence artificielle plus efficaces, l'optimisation de l'infrastructure matérielle et l'adoption plus large de stratégies innovantes. Dans le même temps, l’empreinte écologique de l’IA doit peut-être également être prise en compte.

"La future intelligence artificielle nécessitera des percées énergétiques, et elle consommera beaucoup plus d'énergie que prévu."

- Sam Altman, PDG d'OpenAI

DAVOS, Suisse 16 janvier 2024

En fait, avec As the ; L’impact environnemental de la formation des modèles d’IA fait l’objet d’un examen minutieux, la durabilité devient une question importante. À mesure que les entreprises et le public l’adopteront, davantage d’électricité et de grandes quantités d’eau seront nécessaires pour alimenter et refroidir les plates-formes d’appareils du géant de la technologie. Par exemple, les chercheurs estiment que la fabrication du GPT-3 a consommé 1 287 mégawattheures d’électricité et produit 552 tonnes d’équivalent dioxyde de carbone, ce qui équivaut à conduire 123 voitures particulières à essence pendant un an.

S'efforcer de parvenir à un avenir plus durable où le progrès technologique et la responsabilité écologique coexistent harmonieusement pourrait être le but ultime de l'évolution de l'intelligence artificielle.

(*) Glossaire

  • Algorithme : un ensemble défini, étape par étape, de procédures ou de règles de calcul conçues pour effectuer une tâche spécifique ou résoudre un problème spécifique

  • Ensemble de données : une collection de points de données ou d'enregistrements , utilisant généralement Formulaire tabulaire utilisé pour entraîner, tester ou valider un modèle d'apprentissage automatique, comprenant des fonctionnalités (variables indépendantes) et des étiquettes (variables dépendantes ou résultats) dans l'apprentissage supervisé.

  • Décision : en apprentissage automatique, cela fait référence à la conclusion à laquelle parvient un modèle après avoir analysé des données, comme un filtre anti-spam décidant si un e-mail est du spam (et le déplace vers le dossier spam) ou non (laissez-le dedans. votre boîte de réception).

  • Deep Learning : un sous-ensemble d'apprentissage automatique impliquant des modèles appelés réseaux de neurones multicouches qui sont capables d'apprendre automatiquement des modèles et des représentations complexes à partir de grandes quantités de données

  • Données étiquetées : cela fait référence à chaque instance étant un ensemble de données étiquetés avec des résultats ou des catégories pour fournir des conseils clairs pour les modèles d’apprentissage automatique pendant la formation.

  • Apprentissage automatique : une branche de l'intelligence artificielle qui implique la formation d'algorithmes pour reconnaître des modèles et prendre des décisions basées sur des données sans avoir à être explicitement programmés pour chaque tâche spécifique

  • Modèle : Mathématiques entraînées sur un ensemble de données et des représentations informatiques capable de prédire et de classer de nouvelles données invisibles par des modèles d'apprentissage et des relations dans les données de formation précision du modèle

  • Langage naturel : la façon dont les humains communiquent entre eux, qu'ils soient parlés ou écrits, englobe les humains. Les complexités, nuances et règles inhérentes à l'expression du langage

  • Réseau de neurones : un modèle informatique inspiré de la structure du cerveau humain, composé de nœuds interconnectés, ou neurones, qui traitent et transmettent des signaux pour résoudre des tâches complexes telles que la reconnaissance de formes et la prise de décision en apprenant à partir de données

  • Surajustement : lorsqu'un modèle d'apprentissage automatique apprend les données d'entraînement de trop près, le rendant incapable de généraliser et de prédire avec précision les résultats sur des données invisibles.

  • Modèle : (dans le contexte de l'apprentissage automatique) ce que le modèle apprend à reconnaître. qui peut être utilisé pour faire des prédictions ou des décisions sur de nouvelles données invisibles

  • Prédiction : (en apprentissage automatique) utiliser un modèle entraîné pour estimer de nouvelles données en fonction de modèles appris pendant la phase d'entraînement, le processus permettant de trouver le résultat le plus probable ou valeur pour une instance invisible

  • Quantisation : (en apprentissage profond) le processus de réduction de la précision des poids et des activations dans le modèle à 2, 3 ou 4 chiffres, ce qui rend le modèle capable de fonctionner plus efficacement lors de l'inférence temps avec une perte de précision minimale.

  • Supervisé / Non supervisé : La différence entre l'apprentissage supervisé et l'apprentissage non supervisé est que dans la formation en apprentissage supervisé, il y a des données étiquetées (*) qui guident le modèle pour apprendre la cartographie de l'entrée à la sortie, tandis que l'apprentissage non supervisé implique de trouver dans les données Modèle ou structure sans étiquettes de résultat explicites.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:dzone.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal