Maison > Périphériques technologiques > IA > Comment fonctionnent les LLM: pré-formation à la formation post-formation, réseaux de neurones, hallucinations et inférence

Comment fonctionnent les LLM: pré-formation à la formation post-formation, réseaux de neurones, hallucinations et inférence

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
Libérer: 2025-02-26 03:58:14
original
511 Les gens l'ont consulté

dévoiler la magie derrière les grands modèles de langue (LLMS): une exploration en deux parties

Les modèles de langues importants (LLM) semblent souvent magiques, mais leur fonctionnement interne est étonnamment systématique. Cette série en deux parties démystifie les LLM, expliquant leur construction, leur formation et leur raffinement dans les systèmes d'IA que nous utilisons aujourd'hui. Inspirée par la vidéo YouTube perspicace (et longue!) D'Andrej Karpathy, cette version condensée fournit les concepts principaux dans un format plus accessible. Alors que la vidéo de Karpathy est fortement recommandée (800 000 vues en seulement 10 jours!), Cette lecture de 10 minutes distille les principaux plats à retenir des 1,5 premières heures.

Partie 1: Des données brutes au modèle de base

LLM Le développement implique deux phases cruciales: pré-formation et post-formation.

1. Pré-formation: enseigner la langue

Avant de générer du texte, un LLM doit apprendre la structure du langage. Ce processus de pré-formation intensif en calcul implique plusieurs étapes:

  • Acquisition et prétraitement des données: Des ensembles de données massifs et divers sont recueillis, y compris souvent des sources comme la rampe commune (250 milliards de pages Web). Cependant, les données brutes nécessitent un nettoyage pour éliminer les spams, les doublons et le contenu de faible qualité. Des services comme FineWeb offrent des versions prétraitées disponibles sur le visage étreint.

How LLMs Work: Pre-Training to Post-Training, Neural Networks, Hallucinations, and Inference

  • Tokenisation: Le texte est converti en jetons numériques (mots, sous-mots ou caractères) pour le traitement du réseau neuronal. GPT-4, par exemple, utilise 100 277 jetons uniques. Des outils comme TikTokenizer visualisent ce processus.

How LLMs Work: Pre-Training to Post-Training, Neural Networks, Hallucinations, and Inference

  • Formation du réseau neuronal: Le réseau neuronal apprend à prédire le token suivant dans une séquence basée sur le contexte. Cela implique des milliards d'itérations, ajustant les paramètres (poids) via la rétro-épropagation pour améliorer la précision des prédictions. L'architecture du réseau dicte comment les jetons d'entrée sont traités pour générer des sorties.

How LLMs Work: Pre-Training to Post-Training, Neural Networks, Hallucinations, and Inference

Le modèle de base résultant comprend les relations de mots et les modèles statistiques mais manque d'optimisation des tâches réelles. Il fonctionne comme une saisie semi-automatique avancée, prédisant en fonction de la probabilité mais avec des capacités de suivi des instructions limitées. L'apprentissage dans le contexte, en utilisant des exemples dans des invites, peut être utilisé, mais une formation supplémentaire est nécessaire.

2. Post-entraînement: raffinage pour une utilisation pratique

Les modèles de base

sont raffinés par la post-formation à l'aide d'ensembles de données plus petits et spécialisés. Ce n'est pas une programmation explicite mais une instruction plutôt implicite à travers des exemples structurés.

Les méthodes de post-formation comprennent:

  • Instruction / conversation Fonction: Enseigne au modèle pour suivre les instructions, s'engager dans des conversations, adhérer aux directives de sécurité et refuser les demandes nocives (par exemple, instructGpt).
  • Fonction d'adaptation spécifique au domaine: adapte le modèle pour des champs spécifiques (médecine, droit, programmation).

Les jetons spéciaux sont introduits pour délimiter la saisie des utilisateurs et les réponses AI.

Inférence: génération de texte

L'inférence, effectuée à tout stade, évalue l'apprentissage du modèle. Le modèle attribue des probabilités à des jetons et des échantillons à proximité potentiels de cette distribution, créant du texte non explicitement dans les données de formation mais statistiquement cohérente avec elle. Ce processus stochastique permet des sorties variées de la même entrée.

Hallucinations: aborder les fausses informations

Hallucinations, où les LLM génèrent de fausses informations, découlent de leur nature probabiliste. Ils ne "connaissent" pas "les faits mais prédisent des séquences de mots probables. Les stratégies d'atténuation comprennent:

  • "Je ne sais pas" Formation: Formation explicite du modèle pour reconnaître les lacunes des connaissances grâce à l'auto-interrogation et à la génération de questions automatisées.
  • Intégration de recherche Web: Extension des connaissances en accédant aux outils de recherche externes, en incorporant les résultats dans la fenêtre de contexte du modèle.

LLMS Accès aux connaissances à travers de vagues souvenirs (modèles de la pré-formation) et de la mémoire de travail (informations dans la fenêtre de contexte). Les invites du système peuvent établir une identité de modèle cohérente.

Conclusion (partie 1)

Cette partie a exploré les aspects fondamentaux du développement de LLM. La partie 2 se plongera dans l'apprentissage du renforcement et examinera les modèles de pointe. Vos questions et suggestions sont les bienvenues!

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal