


Comment fonctionnent les LLM: pré-formation à la formation post-formation, réseaux de neurones, hallucinations et inférence
dévoiler la magie derrière les grands modèles de langue (LLMS): une exploration en deux parties
Les modèles de langues importants (LLM) semblent souvent magiques, mais leur fonctionnement interne est étonnamment systématique. Cette série en deux parties démystifie les LLM, expliquant leur construction, leur formation et leur raffinement dans les systèmes d'IA que nous utilisons aujourd'hui. Inspirée par la vidéo YouTube perspicace (et longue!) D'Andrej Karpathy, cette version condensée fournit les concepts principaux dans un format plus accessible. Alors que la vidéo de Karpathy est fortement recommandée (800 000 vues en seulement 10 jours!), Cette lecture de 10 minutes distille les principaux plats à retenir des 1,5 premières heures.
Partie 1: Des données brutes au modèle de base
LLM Le développement implique deux phases cruciales: pré-formation et post-formation.
1. Pré-formation: enseigner la langue
Avant de générer du texte, un LLM doit apprendre la structure du langage. Ce processus de pré-formation intensif en calcul implique plusieurs étapes:
- Acquisition et prétraitement des données: Des ensembles de données massifs et divers sont recueillis, y compris souvent des sources comme la rampe commune (250 milliards de pages Web). Cependant, les données brutes nécessitent un nettoyage pour éliminer les spams, les doublons et le contenu de faible qualité. Des services comme FineWeb offrent des versions prétraitées disponibles sur le visage étreint.
- Tokenisation: Le texte est converti en jetons numériques (mots, sous-mots ou caractères) pour le traitement du réseau neuronal. GPT-4, par exemple, utilise 100 277 jetons uniques. Des outils comme TikTokenizer visualisent ce processus.
- Formation du réseau neuronal: Le réseau neuronal apprend à prédire le token suivant dans une séquence basée sur le contexte. Cela implique des milliards d'itérations, ajustant les paramètres (poids) via la rétro-épropagation pour améliorer la précision des prédictions. L'architecture du réseau dicte comment les jetons d'entrée sont traités pour générer des sorties.
Le modèle de base résultant comprend les relations de mots et les modèles statistiques mais manque d'optimisation des tâches réelles. Il fonctionne comme une saisie semi-automatique avancée, prédisant en fonction de la probabilité mais avec des capacités de suivi des instructions limitées. L'apprentissage dans le contexte, en utilisant des exemples dans des invites, peut être utilisé, mais une formation supplémentaire est nécessaire.
2. Post-entraînement: raffinage pour une utilisation pratique
Les modèles de basesont raffinés par la post-formation à l'aide d'ensembles de données plus petits et spécialisés. Ce n'est pas une programmation explicite mais une instruction plutôt implicite à travers des exemples structurés.
Les méthodes de post-formation comprennent:
- Instruction / conversation Fonction: Enseigne au modèle pour suivre les instructions, s'engager dans des conversations, adhérer aux directives de sécurité et refuser les demandes nocives (par exemple, instructGpt).
- Fonction d'adaptation spécifique au domaine: adapte le modèle pour des champs spécifiques (médecine, droit, programmation).
Les jetons spéciaux sont introduits pour délimiter la saisie des utilisateurs et les réponses AI.
Inférence: génération de texte
L'inférence, effectuée à tout stade, évalue l'apprentissage du modèle. Le modèle attribue des probabilités à des jetons et des échantillons à proximité potentiels de cette distribution, créant du texte non explicitement dans les données de formation mais statistiquement cohérente avec elle. Ce processus stochastique permet des sorties variées de la même entrée.
Hallucinations: aborder les fausses informations
Hallucinations, où les LLM génèrent de fausses informations, découlent de leur nature probabiliste. Ils ne "connaissent" pas "les faits mais prédisent des séquences de mots probables. Les stratégies d'atténuation comprennent:
- "Je ne sais pas" Formation: Formation explicite du modèle pour reconnaître les lacunes des connaissances grâce à l'auto-interrogation et à la génération de questions automatisées.
- Intégration de recherche Web: Extension des connaissances en accédant aux outils de recherche externes, en incorporant les résultats dans la fenêtre de contexte du modèle.
LLMS Accès aux connaissances à travers de vagues souvenirs (modèles de la pré-formation) et de la mémoire de travail (informations dans la fenêtre de contexte). Les invites du système peuvent établir une identité de modèle cohérente.
Conclusion (partie 1)
Cette partie a exploré les aspects fondamentaux du développement de LLM. La partie 2 se plongera dans l'apprentissage du renforcement et examinera les modèles de pointe. Vos questions et suggestions sont les bienvenues!
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Il y a neuf ans, Elon Musk s'est tenu devant les journalistes et a déclaré que Tesla faisait un saut audacieux dans le futur - équipé de chaque nouveau véhicule électrique avec le matériel complet nécessaire à la pleine capacité d'auto-conducteur. "Tous les Teslas produits à partir de thi.

Pourquoi la perplexité est-elle si déterminée à acquérir un navigateur Web? La réponse pourrait résider dans un changement fondamental à l'horizon: l'essor de l'Internet d'origine AI - et les navigateurs pourraient être au cœur de celui-ci. J'ai récemment parlé avec Henrik Lexow, produit senior Le

Comprendre le cadre des crédits de la nature de l'UE L'initiative Nature Credits de l'Union européenne introduit un système d'unités de biodiversité quantifiables conçues pour reconnaître et récompenser les individus et les groupes activement engagés dans la restauration et la préservation

Dans l'ensemble, la ligne de boosting de l'ego que «vous êtes parfaite comme vous êtes» est devenue un mantra complice que l'IA contemporaine est prête à jaillir avec effusion à tout utilisateur qui veut entendre des platitudes excessives. Parlons-en. Cette analyse d'un

Maintenant, elle prend un congé permanent, saisi par la peur que l'arrivée de «l'intelligence générale artificielle» - une forme théorique de l'IA capable de faire correspondre ou de dépasser la performance humaine dans d'innombrables domaines - pourrait conduire à l'effondrement de CI

Alors que la conversation autour des agents de l'IA continue d'évoluer entre les entreprises et les particuliers, un thème central se démarque: tous les agents de l'IA ne sont pas créés égaux. Il existe un large éventail - des systèmes de base et axés sur les règles à un modèle adaptatif très avancé

Une nouvelle étude dans le Lancet a étudié comment l'utilisation de l'IA pendant les coloscopies affecte les capacités de diagnostic des médecins. Les chercheurs ont évalué les compétences des médecins à identifier des anomalies spécifiques sur trois mois sans IA, puis les ont réévaluées après

Comme le dit Sam Altman, le PDG d'Openai, GPT - 5 est «une étape importante» vers AGI et est «le modèle le plus intelligent, le plus rapide et le plus utile à ce jour». Il compare le saut de GPT-4 à GPT-5 à passer d'un diplômé universitaire à un «expert au niveau du doctorat». La version du modèle
