Diese Seite berichtete am 19. August, dass Version 1.2 von Moores Thread „KUAE Intelligent Computing Cluster“ offiziell veröffentlicht wurde. Diese Version optimiert die Vollständigkeit der Software- und Hardwareebenen, unterstützt 64K-Langtext und fügt eine vollständige Palette von LLaMA2-Großmodellen, Baichuan, Yayi, Qwen2, Mixtral (MoE 8x7B) und anderen Modellen hinzu.

MFU-Verbesserung
Flash Attention2-Optimierung
64K-Langtextunterstützung
Unterstützt das hybride Expertenmodell MoE
Training an Haltepunkten fortsetzen
DeepSpeed optimieren
Verbesserte Stabilität
Visualisierung/Beobachtbarkeit
Neue große Modelle zur integrierten Modellbibliothek hinzugefügt
Das obige ist der detaillierte Inhalt vonMoore Thread „Kua'e Intelligent Computing Cluster KUAE' Version 1.2 veröffentlicht: Unterstützt 64K-Langtext, fügt die vollständige LLaMA2-Serie großer Modelle usw. hinzu.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!
Unterbewertete Münzen, die man im Jahr 2024 horten sollte
So kaufen, verkaufen und handeln Sie Bitcoin
Methoden zum Lesen und Schreiben von Java-DBF-Dateien
Was wird in jquery hervorgehoben?
So registrieren Sie eine geschäftliche E-Mail-Adresse
Was können TikTok-Freunde tun?
Spot-Trading-Software
Was bedeutet URL?