Wie ist der aktuelle Entwicklungsstand von In-Context Learning, das von GPT vorangetrieben wurde? Diese Rezension macht es deutlich

PHPz
Freigeben: 2023-04-11 17:10:03
nach vorne
863 Leute haben es durchsucht

Mit der schrittweisen Erweiterung der Sprachmodelle und Korpusgrößen haben große Sprachmodelle (LLM) mehr Potenzial gezeigt. Einige neuere Studien haben gezeigt, dass LLM In-Context-Learning (ICL) nutzen kann, um eine Reihe komplexer Aufgaben auszuführen, beispielsweise das Lösen mathematischer Denkprobleme.

Zehn Forscher der Peking-Universität, des Shanghai AI Lab und der University of California, Santa Barbara, haben kürzlich einen Übersichtsartikel zum kontextbezogenen Lernen veröffentlicht, in dem sie den aktuellen Fortschritt der ICL-Forschung detailliert beschreiben.

Wie ist der aktuelle Entwicklungsstand von In-Context Learning, das von GPT vorangetrieben wurde? Diese Rezension macht es deutlich

Papieradresse:https://arxiv.org/pdf/2301.00234v1.pdf

Die Kernidee des kontextbezogenen Lernens ist das Analogielernen. Die folgende Abbildung beschreibt, wie das Das Sprachmodell verwendet ICL. Treffen Sie Entscheidungen.

Wie ist der aktuelle Entwicklungsstand von In-Context Learning, das von GPT vorangetrieben wurde? Diese Rezension macht es deutlich

Erstens erfordert ICL einige Beispiele, um einen Demonstrationskontext zu bilden, und diese Beispiele werden normalerweise in natürlichsprachlichen Vorlagen geschrieben. ICL ordnet dann die Abfragefrage dem Präsentationskontext zu, um eine Eingabeaufforderung zu bilden, und speist sie zur Vorhersage in ein Sprachmodell ein. Im Gegensatz zur Trainingsphase des überwachten Lernens, bei der die Aktualisierung der Modellparameter mithilfe umgekehrter Gradienten erforderlich ist, sind bei ICL keine Parameteraktualisierungen erforderlich, damit das vorab trainierte Sprachmodell Vorhersageaufgaben direkt ausführen kann, und es wird erwartet, dass das Modell die verborgenen Muster in der Demonstration lernt Beispiele und treffen Sie Entscheidungen auf der Grundlage dieser.

Als neues Paradigma bietet ICL viele attraktive Vorteile. Erstens sind die Demobeispiele in einem natürlichen Sprachformat geschrieben, das eine interpretierbare Schnittstelle für die Verknüpfung mit großen Sprachmodellen bietet. Dieses Paradigma macht es einfacher, menschliches Wissen in Sprachmodelle zu integrieren, indem Demonstrationsbeispiele und Vorlagen geändert werden (Liu et al., 2022; Lu et al., 2022; Wu et al., 2022; Wei et al., 2022c). Zweitens ähnelt das Lernen im Kontext dem Entscheidungsprozess des menschlichen Lernens durch Analogie. Drittens handelt es sich bei ICL im Vergleich zu überwachtem Training um ein ausbildungsfreies Lernkonzept. Dies kann nicht nur den Rechenaufwand für die Anpassung des Modells an neue Aufgaben erheblich reduzieren, sondern auch Language Model as a Service (LMaaS, Sun et al., 2022) ermöglichen und einfach auf groß angelegte reale Aufgaben anwenden.

Obwohl ICL vielversprechend ist, gibt es dennoch viele Aspekte, die es wert sind, untersucht zu werden, einschließlich seiner Leistung. Beispielsweise verfügt das ursprüngliche GPT-3-Modell über bestimmte ICL-Fähigkeiten, einige Studien haben jedoch ergeben, dass diese Fähigkeit durch Anpassung während des Vortrainings erheblich verbessert werden kann. Darüber hinaus hängt die Leistung von ICL von bestimmten Einstellungen ab, einschließlich Eingabeaufforderungsvorlagen, kontextbezogener Probenauswahl und Probenreihenfolge. Obwohl der Wirkmechanismus von ICL vernünftig erscheint, ist er noch nicht klar genug und es gibt nicht viele Studien, die seinen Wirkmechanismus vorläufig erklären können.

Dieses Übersichtspapier kommt zu dem Schluss, dass die starke Leistung von ICL auf zwei Phasen beruht:

  • Die Trainingsphase zur Kultivierung der ICL-Fähigkeiten großer Sprachmodelle;
  • Das große Sprachmodell prognostiziert basierend auf einer bestimmten Aufgabe Demonstrationen Argumentationsphase.

In der Trainingsphase wird das Sprachmodell direkt entsprechend den Sprachmodellierungszielen trainiert, beispielsweise der Links-nach-rechts-Generierung. Obwohl diese Modelle nicht speziell für das Lernen im Kontext optimiert sind, sind die Fähigkeiten von ICL dennoch überraschend. Die bestehende ICL-Forschung basiert grundsätzlich auf gut trainierten Sprachmodellen.

Da in der Inferenzphase die Eingabe- und Ausgabebezeichnungen durch interpretierbare Vorlagen in natürlicher Sprache dargestellt werden, kann die ICL-Leistung aus mehreren Perspektiven optimiert werden. Dieses Übersichtspapier bietet eine detaillierte Beschreibung und einen Vergleich, wählt geeignete Beispiele zur Demonstration aus und entwirft spezifische Bewertungsmethoden für verschiedene Aufgaben.

Der allgemeine Inhalt und die Struktur dieses Übersichtsartikels sind in der folgenden Abbildung dargestellt, einschließlich: der formalen Definition von ICL (§3), der Aufwärmmethode (§4), der Prompt-Design-Strategie (§5) und der Bewertungsfunktion ( §6) .

Wie ist der aktuelle Entwicklungsstand von In-Context Learning, das von GPT vorangetrieben wurde? Diese Rezension macht es deutlich

Darüber hinaus bietet §7 Einblick in die aktuelle Suche nach der Aufklärung der Funktionsweise von ICLs. §8 stellt darüber hinaus nützliche Bewertungen und Ressourcen für ICL bereit und §9 stellt mögliche Anwendungsszenarien vor, die die Wirksamkeit von ICL demonstrieren. Abschließend fasst §10 die bestehenden Herausforderungen und potenziellen Richtungen im ICL-Bereich zusammen, um eine Referenz für die weitere Entwicklung des Bereichs zu bieten.

Interessierte Leser können den Originaltext des Artikels lesen, um weitere Forschungsdetails zu erfahren.

Das obige ist der detaillierte Inhalt vonWie ist der aktuelle Entwicklungsstand von In-Context Learning, das von GPT vorangetrieben wurde? Diese Rezension macht es deutlich. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!