Tapak ini melaporkan pada 19 Ogos bahawa versi 1.2 urutan Moore "Kluster Pengkomputeran Pintar KUAE" telah dikeluarkan secara rasmi. Versi ini mengoptimumkan kelengkapan tahap perisian dan perkakasan, menyokong teks sepanjang 64K, menambah rangkaian penuh model besar LLaMA2, Baichuan, Yayi, Qwen2, Mixtral (MoE 8x7B) dan model lain.

Peningkatan MFU
Flash Attention2 pengoptimuman
64K sokongan teks panjang
Menyokong model pakar hibrid MoE
Teruskan latihan di titik putus
Optimumkan DeepSpeed
Meningkatkan kestabilan
Visualisasi/observability
Model besar baharu telah ditambah pada perpustakaan model terbina dalam
Atas ialah kandungan terperinci Moore Thread 'KUAE Intelligent Computing Cluster KUAE' versi 1.2 dikeluarkan: menyokong teks panjang 64K, menambah LLaMA2 siri penuh model besar, dsb.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!
vue v-jika
Apakah kaedah untuk menyambung ke pelayan vps
Bagaimana untuk berdagang di Binance
WeChat Moments tidak boleh dimuat semula
Apakah klasifikasi sistem linux?
Bagaimana untuk menyambung ke pangkalan data dalam vb
Bagaimana untuk mengalih keluar beberapa elemen pertama tatasusunan dalam php
Bagaimana untuk menyelesaikan masalah pemindahan nama domain pelayan perlahan