AITeknologi model besar menjadi kuasa utama dalam menggalakkan pembangunan produktiviti berkualiti tinggi dan memainkan peranan penting dalam penyepaduan dengan ribuan industri. Model besar Hunyuan Tencent telah mengembangkan model kepada trilion skala parameter dengan mengguna pakai model pakar hibrid (MoE) struktur, meningkatkan "otak" kapasiti ramalan dan meningkatkan prestasi kos ramalan penaakulan dikurangkan. Sebagai model umum, Tencent Hunyuan adalah peneraju industri dalam prestasi Cina, terutamanya dalam penjanaan teks, logik matematik dan dialog berbilang pusingan.
Baru-baru ini, Tencent Hunyuan Large Model telah mengeluarkan secara rasmi model teks panjang 256k, dan ia terbuka kepada majoriti perusahaan dan pembangun individu melalui Tencent Cloud untuk menyokong rangkaian inovasi dan aplikasi yang lebih luas. Tencent Hunyuan 256k versi model mempunyai keupayaan untuk mengendalikan teks ultra panjang melebihi 380000 aksara. Dalam senario aplikasi perbualan, model ini boleh " ingat " lebih banyak kandungan perbualan, berkesan mengelakkan " melupakan " maklumat dan masalah lain. Selain itu, ia mempunyai keupayaan analisis kontekstual yang sangat baik untuk memberikan maklum balas yang lebih tepat dan relevan kepada peserta perbualan, membantu mereka membuat keputusan yang lebih termaklum.
Selain itu, versi model ini juga menunjukkan prestasi yang kukuh dalam pemahaman membaca dokumen panjang dan analisis data berskala besar. Ia boleh memberikan sokongan kerja yang kukuh untuk profesional dalam bidang kewangan, perubatan, pendidikan, perjalanan dan industri lain, meningkatkan kecekapan kerja mereka dengan ketara. Model ini juga telah dioptimumkan secara mendalam dari segi prestasi inferens, memastikan pengguna boleh menikmati pengalaman yang lebih lancar dan lebih cekap dalam aplikasi sebenar pada platform seperti Tencent Cloud.
Kurangkan "lupa" dan jadikan model besar lebih bijak
Dalam produk model besar, pengendalian keperluan perbualan adalah teras Walau bagaimanapun, disebabkan oleh had keupayaan pemprosesan teks yang panjang, model besar tradisional terdedah kepada "hilang arah" atau muncul "hilang ingatan" daripada perbualan meningkat, Jumlah maklumat yang terlupa juga meningkat. Model
Tencent Hunyuan256k dioptimumkan khas untuk cabaran ini. Ia mengamalkan seni bina "Expert Hybrid" (MoE) dan menggabungkan teknologi inovatif seperti RoPE-NTK , kedua-duanya mengekalkan Ia mempunyai keupayaan untuk memproses teks pendek umum dengan cekap (kurang daripada 4,000 aksara), sambil mencapai kejayaan dalam kedalaman dan keluasan pemprosesan teks yang panjang. . Mencari jarum dalam timbunan jerami
”Selepas menguji tugas, ketepatan model dalam pemprosesan teks panjang telah mencapai 99.99%, yang juga berada di kedudukan terkemuka di peringkat antarabangsa. Lelaran berterusan dan stabil, kecekapan aplikasi model besar dipertingkatkan ) struktur, dan dalam proses ini telah mengumpul sejumlah besar teknologi yang dibangunkan sendiri. Dalam versi sebelumnya 32K, model ini telah mengatasi model sumber terbuka yang serupa dengan ketara di pasaran dan menunjukkan prestasi cemerlang dalam pelbagai senario aplikasi. Selepas lelaran baharu, Tencent Hunyuan 256kDalam penilaian GSB dalam bidang umum, berbanding versi sebelumnya, kadar kemenangan ialah .% .
Pada masa yang sama, set latihan Tencent Hunyuan
256k
menyepadukan data beranotasi berkualiti tinggi seperti data teks panjang, data terjemahan dan Soal Jawab berbilang dokumen dalam pelbagai bidang seperti bidang perubatan dan kewangan, yang menjadikan model lebih praktikal dalam aplikasi praktikal, terutamanya dalam industri Perubatan dan kewangan yang memerlukan analisis dan pemprosesan yang kerap bagi sejumlah besar data teks panjang boleh memberikan sokongan kerja yang lebih tepat dan cekap. Sebagai contoh, apabila laporan kewangan yang dikeluarkan oleh bank pusat dimasukkan ke dalam model Tencent Hunyuan
256k, model itu boleh dengan cepat memperhalusi dan meringkaskan perkara utama laporan, mencapai kelajuan dan ketepatan pemprosesan yang mengagumkan. Tahap memuaskan.
Pengoptimuman prestasi inferens, membawa keupayaan pemahaman model besar yang lebih kukuh
Pada masa yang sama, Tencent Hunyuan 256k telah dioptimumkan secara mendalam dalam prestasi inferens. Dalam mod ketepatan , berbanding dengan FP16ketepatan, QPM model (kadar pertanyaan sesaat) mencapai peningkatan ketara sebanyak perkataan pertama, manakala 23.9% sahaja. meningkat sebanyak 5.7%. Penambahbaikan ini dengan ketara meningkatkan responsif model dan kecekapan keseluruhan dalam aplikasi dunia sebenar.
Ambil analisis "The Romance of the Three Kingdoms" sebagai contoh Tencent Hunyuan 256k boleh membaca dan mendapatkan semula novel klasik yang mengandungi ratusan ribu perkataan ini, dan bukan sahaja dapat mengenal pasti kunci dengan tepat. watak dan peristiwa dalam novel, malah penerangan terperinci tentang cuaca, pakaian watak, dll. boleh memberikan maklumat yang tepat. Sebagai komponen utama produktiviti baharu, model besar memainkan peranan penting dalam menggalakkan peningkatan industri dan mencapai pembangunan berkualiti tinggi. Pelancaran model Tencent Hunyuan 256k
telah menyuntik tenaga baharu ke dalam keseluruhan industri dan membuka prospek aplikasi yang lebih luas.
Pada masa ini, Tencent Hunyuan
256kmodel artikel panjang telah dibuka kepada majoriti perusahaan dan pembangun individu melalui Tencent Cloud Pengguna boleh mengakses artikel hunyuan-standard
. model masuk. Ini membolehkan lebih ramai pembangun dan pengguna mengakses dan menggunakan fungsi berkuasa model Hunyuan Tencent dengan mudah, dengan itu menyediakan penyelesaian pintar untuk semua lapisan masyarakat dan menggalakkan realisasi senario aplikasi yang lebih inovatif.
Atas ialah kandungan terperinci Menyokong input 380,000 perkataan pada satu masa! Tencent Hunyuan melancarkan model artikel sepanjang 256k, terbuka kepada perusahaan dan pembangun individu melalui Tencent Cloud. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!