


Tsinghua University und Zhipu AI Open Source GLM-4: Start einer neuen Revolution in der Verarbeitung natürlicher Sprache
Seit der Einführung von ChatGLM-6B am 14. März 2023 haben die Modelle der GLM-Serie große Aufmerksamkeit und Anerkennung erhalten. Insbesondere nachdem ChatGLM3-6B als Open Source verfügbar war, sind die Entwickler voller Erwartungen an das von Zhipu AI eingeführte Modell der vierten Generation. Diese Erwartung wurde mit der Veröffentlichung von GLM-4-9B endlich vollständig erfüllt.
Die Geburt von GLM-4-9B
Um kleinen Modellen (10B und darunter) leistungsfähigere Fähigkeiten zu verleihen, hat das GLM-Technikteam nach fast einem halben Jahr dieses neue Open-Source-Modell der GLM-Serie der vierten Generation auf den Markt gebracht der Erkundung: GLM-4-9B. Dieses Modell komprimiert die Modellgröße erheblich und stellt gleichzeitig Genauigkeit sicher. Es verfügt über eine schnellere Inferenzgeschwindigkeit und eine höhere Effizienz. Die Erforschung des GLM-Technikteams nimmt kein Ende und wir werden weiterhin hart daran arbeiten, wettbewerbsfähigere Open-Source-Technologie auf den Markt zu bringen für das Datenscreening und schließlich 10T hochwertige mehrsprachige Daten erhalten. Diese Datenmenge ist mehr als dreimal so groß wie die des ChatGLM3-6B-Modells. Darüber hinaus nutzen wir die FP8-Technologie für ein effizientes Vortraining, wodurch die Trainingseffizienz im Vergleich zum Modell der dritten Generation um das 3,5-fache verbessert wird. Unter Berücksichtigung der Speicheranforderungen des Benutzers wurde die Parametergröße von GLM-4-9B von 6B auf 9B erhöht. Letztendlich haben wir die Berechnung vor dem Training um das Fünffache erhöht, um die Leistungsfähigkeit unter begrenzten Speicherbedingungen zu maximieren.
Hervorragende Leistungsdemonstration
GLM-4-9B ist ein umfassendes, umfassendes Technologie-Upgrade-Tool mit leistungsfähigerer Argumentationsleistung, besseren Kontextverarbeitungsfunktionen, mehrsprachiger Unterstützung, multimodaler Verarbeitung und vollständigem Tool-Set, das alle Tools aufruft und andere Vorteile. Diese Upgrades bieten Benutzern einen stabileren, zuverlässigeren und genaueren technischen Support und verbessern die Arbeitseffizienz und -qualität der Benutzer.Die GLM-4-9B-Serie umfasst mehrere Versionen:
Basisversion: GLM-4-9B (8K)
Konversationsversion: GLM-4-9B-Chat (128K) Extra lange Kontextversion: GLM-4-9B-Chat-1M (1M)- Multimodale Version: GLM-4V-9B-Chat (8K)
- Leistungsstarke Funktionen von GLM-4-9B
Grundlegende Funktionen Basierend auf einer umfassenden Vorschulung haben sich die umfassenden Chinesisch- und Englischkenntnisse von GLM-4-9B im Vergleich zu ChatGLM3-6B um 40 % verbessert. Insbesondere wurden erhebliche Verbesserungen bei der chinesischen Ausrichtungsfunktion AlignBench, der Befehlskonformitätsfunktion IFeval und der Engineering-Code-Verarbeitungsfunktion Natural Code Bench erzielt. Auch beim Vergleich des Modells Llama 3 8B mit mehr Trainingsvolumen ist GLM-4-9B in keiner Weise unterlegen und führt bei den Englischleistungen. Im Bereich der chinesischen Fächer hat sich GLM-4-9B um bis zu 50 % verbessert Bewertungstabelle].
Langtextverarbeitungsfunktion
Bilder
Die Kontextlänge des GLM-4-9B+-Modells wurde von 128.000 auf 1.000.000 Token erweitert, was bedeutet, dass es Eingaben von bis zu 2 Millionen Wörtern gleichzeitig verarbeiten kann gleichzeitig, was zwei Büchern von „Dream of Red Mansions“ oder dem Umfang von 125 wissenschaftlichen Arbeiten entspricht. Das GLM-4-9B-Chat-1M-Modell hat seine hervorragende Fähigkeit zur zerstörungsfreien Verarbeitung langer Texteingaben im „Nadel im Heuhaufen“-Experiment erfolgreich unter Beweis gestellt [Illustration des Langtext-Experiments].Im Folgenden finden Sie zwei Demo-Videofälle, die die Funktionen zur Verarbeitung langer Texte zeigen:
- GLM-4-9B-Chat-1M Modell: Geben Sie etwa 900.000 Wörter in die vollständige Sammlung von „Das Drei-Körper-Problem“ ein und bitten Sie das Modell, eine Fortsetzungsskizze für den Roman zu schreiben. Das Modell ist vernünftig geplant und bietet einen Fortsetzungsrahmen (Video 10-fach beschleunigt).
- Mehrsprachige Unterstützung GLM-4-9B+ unterstützt bis zu 26 Sprachen, darunter Chinesisch, Englisch, Russisch usw. Wir haben die Vokabulargröße des Tokenizers von 65 KB auf 150 KB erweitert und so die Codierungseffizienz um 30 % verbessert. Bei mehrsprachigen Verständnis- und Generierungsaufgaben übertrifft GLM-4-9B-Chat Llama-3-8B-Instruct [Vergleichstabelle für mehrsprachige Leistung].
Funktionsaufruffähigkeit
Die Funktionsaufruffähigkeit von GLM-4-9B ist im Vergleich zur vorherigen Generation um 40 % gestiegen. Im Berkeley Function-Calling Leaderboard ist seine Funktionsaufruffähigkeit mit der von GPT-4 vergleichbar [Funktionsaufrufleistung Vergleichstabelle].
Alle Tools Vollständiger Tools-Aufruf
Die Funktion „Alle Tools“ bedeutet, dass das Modell verschiedene externe Tools (wie Codeausführung, Netzwerkbrowsing, Zeichnen usw.) verstehen und verwenden kann, um bei der Erledigung von Aufgaben zu helfen. Beim Zhipu DevDay am 16. Januar wurde das GLM-4-Modell vollständig mit All-Tools-Funktionen aktualisiert, die Webbrowser, Code-Interpreter, CogView und andere Tools intelligent aufrufen können, um komplexe Anforderungen zu erfüllen [All-Tools-Aufgabensymbol].Multimodale VerarbeitungGLM-4V-9B, ein multimodales Open-Source-Modell basierend auf GLM-4, ist in der Lage, hochauflösende Eingaben zu verarbeiten und visuelle und Textdaten für Schulungen und Demonstrationen direkt zu mischen Bemerkenswert Der multimodale Verarbeitungseffekt entspricht der Leistung von GPT-4V. Es eignet sich sehr gut für die Identifizierung und Verarbeitung komplexer multimodaler Aufgaben [Beispieldiagramm für multimodale Anwendungen].
Bilder
Zukunftsausblick
GLM-4-9B hat seine leistungsstarke Leistung bei einer Vielzahl von Aufgaben unter Beweis gestellt und ist ein Durchbruch auf dem Gebiet der Verarbeitung natürlicher Sprache. Ob akademische Forschung oder industrielle Anwendungen, der GLM-4-9B ist Ihre beste Wahl.
Wir laden Sie herzlich ein, sich den Reihen der GLM-4-Benutzer anzuschließen und die Möglichkeiten zu erkunden, die dieses hervorragende Modell bietet:
- GitHub-Repository
- Hugging Face-Modellseite
- Magic Community
Das obige ist der detaillierte Inhalt vonTsinghua University und Zhipu AI Open Source GLM-4: Start einer neuen Revolution in der Verarbeitung natürlicher Sprache. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Eine Strategie zur Vermeidung von Fehlern, die in C -Switch -Anweisungen standardmäßig verursacht wurden: Verwenden Sie die Umgebungen anstelle von Konstanten, wodurch der Wert der Fallerklärung auf ein gültiges Mitglied des Enum beschränkt wird. Verwenden Sie in der letzten Fallanweisung Falsch, um das Programm weiterhin den folgenden Code auszuführen. Fügen Sie für Switch -Anweisungen ohne Falle immer eine Standardanweisung für die Fehlerbehandlung hinzu oder geben Sie das Standardverhalten an.

Die Standardanweisung ist in der Switch -Fallanweisung von entscheidender Bedeutung, da sie einen Standardverarbeitungspfad enthält, der sicherstellt, dass ein Codeblock ausgeführt wird, wenn der variable Wert an keine Fallanweisung übereinstimmt. Dies verhindert unerwartetes Verhalten oder Fehler und verbessert die Robustheit des Codes.

Die Rückgabewerttypen von C -Sprachfunktion umfassen Int-, Float-, Doppel-, Zeichen-, Hohlraum- und Zeigertypen. INT wird verwendet, um Ganzzahlen zurückzugeben, zu schweben und doppelt zu doppelt sind, um Schwimmer zurückzugeben, und char gibt Zeichen zurück. Void bedeutet, dass die Funktion keinen Wert zurückgibt. Der Zeigertyp gibt die Speicheradresse zurück. Achten Sie darauf, Speicherverlust zu vermeiden. Eine Struktur oder ein Konsortium kann mehrere verwandte Daten zurückgeben.

C -Sprachfunktionen sind wiederverwendbare Codeblöcke. Sie erhalten Input, führen Vorgänge und Rückgabergebnisse aus, die modular die Wiederverwendbarkeit verbessert und die Komplexität verringert. Der interne Mechanismus der Funktion umfasst Parameterübergabe-, Funktionsausführung und Rückgabeteile. Der gesamte Prozess beinhaltet eine Optimierung wie die Funktion inline. Eine gute Funktion wird nach dem Prinzip der einzigen Verantwortung, der geringen Anzahl von Parametern, den Benennungsspezifikationen und der Fehlerbehandlung geschrieben. Zeiger in Kombination mit Funktionen können leistungsstärkere Funktionen erzielen, z. B. die Änderung der externen Variablenwerte. Funktionszeiger übergeben Funktionen als Parameter oder speichern Adressen und werden verwendet, um dynamische Aufrufe zu Funktionen zu implementieren. Das Verständnis von Funktionsmerkmalen und Techniken ist der Schlüssel zum Schreiben effizienter, wartbarer und leicht verständlicher C -Programme.

Der Wertbereich von char in C -Sprache hängt von der Implementierungsmethode ab: Signiertes Zeichen: -128 bis 127 Unsigned char: 0 bis 255 Der spezifische Bereich wird von Computerarchitektur- und Compiler -Optionen betroffen. Standardmäßig ist char auf einen signierten Typ eingestellt.

Es mag ein bisschen schwierig sein, mit C -Sprachlernen zu beginnen, aber nachdem Sie die richtige Methode beherrscht, beherrschen Sie die Grundlagen schnell und beherrschen sie allmählich. In dieser Anleitung wird Sie Schritt für Schritt anleiten, um die Kernkonzepte der C -Sprache von den Grundlagen bis hin zu fortgeschrittenen Themen zu lernen. Verzeichnis C Sprachbasis und Datentypen Benutzereingabe Die grundlegende Programmstruktur lautet wie folgt: #includeIntmain () {printf ("Hallo, Welt!");

Die Berechnung von C35 ist im Wesentlichen kombinatorische Mathematik, die die Anzahl der aus 3 von 5 Elementen ausgewählten Kombinationen darstellt. Die Berechnungsformel lautet C53 = 5! / (3! * 2!), Was direkt durch Schleifen berechnet werden kann, um die Effizienz zu verbessern und Überlauf zu vermeiden. Darüber hinaus ist das Verständnis der Art von Kombinationen und Beherrschen effizienter Berechnungsmethoden von entscheidender Bedeutung, um viele Probleme in den Bereichen Wahrscheinlichkeitsstatistik, Kryptographie, Algorithmus -Design usw. zu lösen.

Untersuchung undefinierter Verhaltensweisen in der C-Programmierung: In einem detaillierten Leitfaden in diesem Artikel wird ein E-Book über undefinierte Verhaltensweisen in der C-Programmierung vorgestellt. Insgesamt 12 Kapitel, die einige der schwierigsten und weniger bekannten Aspekte der C-Programmierung abdecken. Dieses Buch ist kein einführendes Lehrbuch für C-Sprache, sondern richtet sich an Leser, die mit der C-Sprachprogrammierung vertraut sind, und untersucht ausführliche unterschiedliche Situationen und potenzielle Folgen undefinter Verhaltensweisen. Autor Dmitrysviridkin, Herausgeber Andrey Karpov. Nach sechs Monaten sorgfältiger Vorbereitung traf sich dieses E-Book schließlich mit den Lesern. Gedruckte Versionen werden auch in Zukunft gestartet. Dieses Buch sollte ursprünglich 11 Kapitel enthalten, aber während des Erstellungsprozesses wurde der Inhalt kontinuierlich angereichert und schließlich auf 12 Kapitel erweitert-dies ist ein klassisches Array-Array-Fall, und es kann als jeder C-Programmierer bezeichnet werden
