Heim > Technologie-Peripheriegeräte > KI > Die Open LLM-Liste wurde erneut aktualisiert und ein „Platypus', das stärker als Llama 2 ist, ist da.

Die Open LLM-Liste wurde erneut aktualisiert und ein „Platypus', das stärker als Llama 2 ist, ist da.

WBOY
Freigeben: 2023-08-17 15:09:04
nach vorne
1091 Leute haben es durchsucht

Um die Dominanz geschlossener Modelle wie GPT-3.5 und GPT-4 von OpenAI herauszufordern, entsteht eine Reihe von Open-Source-Modellen, darunter LLaMa, Falcon usw. Vor kurzem hat Meta AI LLaMa-2 auf den Markt gebracht, das als das leistungsstärkste Modell im Open-Source-Bereich gilt, und viele Forscher haben auf dieser Basis auch eigene Modelle erstellt. Beispielsweise verwendete StabilityAI Datensätze im Orca-Stil zur Feinabstimmung des Llama2 70B-Modells und entwickelte StableBeluga2, das auch gute Ergebnisse in den Open LLM-Rankings von Huggingface erzielte. Die neuesten Open LLM-Rankings haben das Platypus-Modell (Platypus) geändert hat die Liste erfolgreich angeführt

Der Autor kommt von der Boston University und nutzte PEFT, LoRA und den Datensatz Open-Platypus, um Platypus basierend auf Llama 2 zu verfeinern und zu optimieren.Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Der Autor stellt Platypus vor ausführlich in einem ArtikelOpen LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了Dieser Artikel ist zu finden unter: https://arxiv.org/abs/2308.07317

Das Folgende sind die Hauptbeiträge dieses Artikels:

Open-Platypus ist ein kleiner Datensatz, der aus einer kuratierten Teilmenge öffentlicher Textdatensätze besteht. Dieser Datensatz besteht aus 11 Open-Source-Datensätzen mit dem Schwerpunkt auf der Verbesserung der MINT- und Logikkenntnisse von LLM. Es handelt sich hauptsächlich um von Menschen entworfene Probleme, wobei nur 10 % der Probleme durch LLM erzeugt werden. Der Hauptvorteil von Open-Platypus ist seine Größe und Qualität, die eine sehr hohe Leistung in kurzer Zeit und mit geringem Zeit- und Kostenaufwand für die Feinabstimmung ermöglicht. Konkret dauert das Training eines 13B-Modells mit 25.000 Problemen auf einer einzelnen A100-GPU nur 5 Stunden.

  • beschreibt den Ähnlichkeitsbeseitigungsprozess, reduziert die Größe des Datensatzes und reduziert die Datenredundanz.
  • Eine detaillierte Analyse des allgegenwärtigen Phänomens der Kontamination offener LLM-Trainingssätze mit Daten, die in wichtigen LLM-Testsätzen enthalten sind, und eine Einführung in den Trainingsdatenfilterungsprozess des Autors, um diese versteckte Gefahr zu vermeiden.
  • Beschreibt den Prozess der Auswahl und Zusammenführung spezialisierter, fein abgestimmter LoRA-Module.
  • Open-Platypus-Datensatz

Der Autor hat derzeit den Open-Platypus-Datensatz zu Hugging Face veröffentlicht Vermeiden Sie, dass Benchmarking-Probleme in die Schulung gelangen festgelegt, erwägt unsere Methode zunächst, dieses Problem zu verhindern, um sicherzustellen, dass die Ergebnisse nicht nur durch den Speicher verzerrt sind. Während sie sich um Genauigkeit bemühen, sind sich die Autoren auch der Notwendigkeit einer Flexibilität bei der Markierung von „Bitte sagen Sie noch einmal“-Fragen bewusst, da Fragen auf unterschiedliche Weise gestellt werden können und von allgemeinem Fachwissen beeinflusst werden. Um potenzielle Leckageprobleme zu bewältigen, haben die Autoren sorgfältig Heuristiken zum manuellen Filtern von Problemen mit mehr als 80 % Ähnlichkeit zur Kosinus-Einbettung des Benchmark-Problems in Open-Platypus entwickelt. Sie teilten potenzielle Leckprobleme in drei Kategorien ein: (1) Bitte stellen Sie die Frage noch einmal. (2) Formulieren Sie neu: Dieser Bereich stellt ein grau getöntes Problem dar; (3) ähnliches, aber nicht identisches Problem. Um vorsichtig zu sein, haben sie alle diese Fragen aus dem Trainingssatz ausgeschlossen

Bitte sagen Sie es noch einmal


Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Dieser Text gibt den Inhalt des Testfragensatzes fast genau wieder, mit nur geringfügigen Änderungen an den Wörtern Ändern oder neu anordnen. Basierend auf der Anzahl der Lecks in der obigen Tabelle gehen die Autoren davon aus, dass dies die einzige Kategorie ist, die unter Kontamination fällt. Im Folgenden finden Sie konkrete Beispiele:

Neubeschreibung: Dieser Bereich nimmt einen Graustich an

Die folgenden Fragen werden Umschreibungen genannt: Dieser Bereich nimmt einen Grauton an und umfasst Themen, die bitte nicht gerade dem gesunden Menschenverstand entsprechen. Während die Autoren die endgültige Beurteilung dieser Fragen der Open-Source-Community überlassen, argumentieren sie, dass diese Probleme häufig Expertenwissen erfordern. Es ist zu beachten, dass diese Art von Fragen Fragen mit genau den gleichen Anweisungen, aber auch Antworten umfassen:

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Ähnlich, aber nicht genau gleich

Diese Fragen weisen einen hohen Grad an Ähnlichkeit auf. Aufgrund subtiler Unterschiede zwischen den Fragen gibt es jedoch erhebliche Unterschiede bei den Antworten.

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Feinabstimmung und Zusammenführung

Nachdem der Datensatz verbessert wurde, konzentriert sich der Autor auf zwei Methoden: Low-Rank-Approximation (LoRA)-Training und Parameter-effiziente Feinabstimmungsbibliothek (PEFT). Im Gegensatz zur vollständigen Feinabstimmung behält LoRA die Gewichte des vorab trainierten Modells bei und verwendet die Rangzerlegungsmatrix für die Integration in die Transformatorschicht, wodurch trainierbare Parameter reduziert und Trainingszeit und -kosten gespart werden. Die Feinabstimmung konzentrierte sich zunächst hauptsächlich auf Aufmerksamkeitsmodule wie v_proj, q_proj, k_proj und o_proj. Anschließend wurde es gemäß den Vorschlägen von He et al. auf die Module gate_proj, down_proj und up_proj erweitert. Sofern die trainierbaren Parameter nicht weniger als 0,1 % der Gesamtparameter ausmachen, weisen diese Module eine bessere Leistung auf. Der Autor hat diese Methode sowohl für das 13B- als auch für das 70B-Modell übernommen und die resultierenden trainierbaren Parameter betrugen 0,27 % bzw. 0,2 %. Der einzige Unterschied besteht in der anfänglichen Lernrate dieser Modelle

Die Ergebnisse

Laut den Ranking-Daten von Hugging Face Open LLM vom 10. August 2023 verglich der Autor Platypus mit anderen SOTA-Modellen und stellte fest, dass Platypus2-70Binstruct geändert Das Modell schnitt gut ab und belegte mit einem durchschnittlichen Wert von 73,13 den ersten Platz

Einschränkungen

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Platypus behält als fein abgestimmte Erweiterung von LLaMa-2 viele der Einschränkungen des Basismodells bei und führt durch gezieltes Training spezifische Herausforderungen ein. Es teilt die statische Wissensbasis von LLaMa-2, was möglicherweise der Fall ist Darüber hinaus besteht die Gefahr, dass ungenaue oder unangemessene Inhalte generiert werden. Während Platypus in den MINT-Fächern und der englischen Logik verbessert wurde, sind seine Kenntnisse in anderen Sprachen möglicherweise nicht zuverlässig produziert gelegentlich voreingenommene oder schädliche Inhalte. Der Autor erkennt die Bemühungen an, diese Probleme zu minimieren, erkennt jedoch die anhaltenden Herausforderungen an, insbesondere in nicht-englischen Sprachen. Anwendungen werden auf Sicherheit getestet. Platypus kann außerhalb seiner primären Domäne einige Einschränkungen aufweisen, daher sollten Benutzer mit Vorsicht vorgehen und zusätzliche Feinabstimmungen in Betracht ziehen, um eine optimale Leistung zu erzielen. Benutzer müssen sicherstellen, dass sich die Trainingsdaten für Platypus nicht mit anderen Benchmark-Testsätzen überschneiden. Die Autoren gehen hinsichtlich Datenkontaminationsproblemen sehr vorsichtig vor und vermeiden die Zusammenführung von Modellen mit Modellen, die auf verunreinigten Datensätzen trainiert wurden. Obwohl bestätigt wird, dass die bereinigten Trainingsdaten keine Verunreinigung aufweisen, kann nicht ausgeschlossen werden, dass einige Probleme übersehen wurden. Weitere Informationen zu diesen Einschränkungen finden Sie im Abschnitt „Einschränkungen“ im Dokument

Das obige ist der detaillierte Inhalt vonDie Open LLM-Liste wurde erneut aktualisiert und ein „Platypus', das stärker als Llama 2 ist, ist da.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage