


Comment fonctionnent les LLM: pré-formation à la formation post-formation, réseaux de neurones, hallucinations et inférence
Feb 26, 2025 am 03:58 AMdévoiler la magie derrière les grands modèles de langue (LLMS): une exploration en deux parties
Les modèles de langues importants (LLM) semblent souvent magiques, mais leur fonctionnement interne est étonnamment systématique. Cette série en deux parties démystifie les LLM, expliquant leur construction, leur formation et leur raffinement dans les systèmes d'IA que nous utilisons aujourd'hui. Inspirée par la vidéo YouTube perspicace (et longue!) D'Andrej Karpathy, cette version condensée fournit les concepts principaux dans un format plus accessible. Alors que la vidéo de Karpathy est fortement recommandée (800 000 vues en seulement 10 jours!), Cette lecture de 10 minutes distille les principaux plats à retenir des 1,5 premières heures.
Partie 1: Des données brutes au modèle de base
LLM Le développement implique deux phases cruciales: pré-formation et post-formation.
1. Pré-formation: enseigner la langue
Avant de générer du texte, un LLM doit apprendre la structure du langage. Ce processus de pré-formation intensif en calcul implique plusieurs étapes:
- Acquisition et prétraitement des données: Des ensembles de données massifs et divers sont recueillis, y compris souvent des sources comme la rampe commune (250 milliards de pages Web). Cependant, les données brutes nécessitent un nettoyage pour éliminer les spams, les doublons et le contenu de faible qualité. Des services comme FineWeb offrent des versions prétraitées disponibles sur le visage étreint.
- Tokenisation: Le texte est converti en jetons numériques (mots, sous-mots ou caractères) pour le traitement du réseau neuronal. GPT-4, par exemple, utilise 100 277 jetons uniques. Des outils comme TikTokenizer visualisent ce processus.
- Formation du réseau neuronal: Le réseau neuronal apprend à prédire le token suivant dans une séquence basée sur le contexte. Cela implique des milliards d'itérations, ajustant les paramètres (poids) via la rétro-épropagation pour améliorer la précision des prédictions. L'architecture du réseau dicte comment les jetons d'entrée sont traités pour générer des sorties.
Le modèle de base résultant comprend les relations de mots et les modèles statistiques mais manque d'optimisation des tâches réelles. Il fonctionne comme une saisie semi-automatique avancée, prédisant en fonction de la probabilité mais avec des capacités de suivi des instructions limitées. L'apprentissage dans le contexte, en utilisant des exemples dans des invites, peut être utilisé, mais une formation supplémentaire est nécessaire.
2. Post-entraînement: raffinage pour une utilisation pratique
Les modèles de basesont raffinés par la post-formation à l'aide d'ensembles de données plus petits et spécialisés. Ce n'est pas une programmation explicite mais une instruction plutôt implicite à travers des exemples structurés.
Les méthodes de post-formation comprennent:
- Instruction / conversation Fonction: Enseigne au modèle pour suivre les instructions, s'engager dans des conversations, adhérer aux directives de sécurité et refuser les demandes nocives (par exemple, instructGpt).
- Fonction d'adaptation spécifique au domaine: adapte le modèle pour des champs spécifiques (médecine, droit, programmation).
Les jetons spéciaux sont introduits pour délimiter la saisie des utilisateurs et les réponses AI.
Inférence: génération de texte
L'inférence, effectuée à tout stade, évalue l'apprentissage du modèle. Le modèle attribue des probabilités à des jetons et des échantillons à proximité potentiels de cette distribution, créant du texte non explicitement dans les données de formation mais statistiquement cohérente avec elle. Ce processus stochastique permet des sorties variées de la même entrée.
Hallucinations: aborder les fausses informations
Hallucinations, où les LLM génèrent de fausses informations, découlent de leur nature probabiliste. Ils ne "connaissent" pas "les faits mais prédisent des séquences de mots probables. Les stratégies d'atténuation comprennent:
- "Je ne sais pas" Formation: Formation explicite du modèle pour reconnaître les lacunes des connaissances grâce à l'auto-interrogation et à la génération de questions automatisées.
- Intégration de recherche Web: Extension des connaissances en accédant aux outils de recherche externes, en incorporant les résultats dans la fenêtre de contexte du modèle.
LLMS Accès aux connaissances à travers de vagues souvenirs (modèles de la pré-formation) et de la mémoire de travail (informations dans la fenêtre de contexte). Les invites du système peuvent établir une identité de modèle cohérente.
Conclusion (partie 1)
Cette partie a exploré les aspects fondamentaux du développement de LLM. La partie 2 se plongera dans l'apprentissage du renforcement et examinera les modèles de pointe. Vos questions et suggestions sont les bienvenues!
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Article chaud

Outils chauds Tags

Article chaud

Tags d'article chaud

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Qu'est-ce que le protocole de contexte modèle (MCP)?

Construire un agent de vision local utilisant omniparser v2 et omnitool

Replit Agent: un guide avec des exemples pratiques

Guide de la piste ACT-ONE: Je me suis filmé pour le tester

Elon Musk et Sam Altman s'affrontent plus de 500 milliards de dollars Stargate Project

Deepseek publie un cadre 3FS et SmallPond

J'ai essayé le codage d'ambiance avec Cursor Ai et c'est incroyable!

5 invites Grok 3 qui peuvent faciliter votre travail
