Rumah > Peranti teknologi > AI > Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

WBOY
Lepaskan: 2023-12-14 18:13:44
ke hadapan
585 orang telah melayarinya

Model sumber terbuka menunjukkan daya hidup yang cergas, bukan sahaja bilangannya semakin meningkat, malah prestasinya semakin baik dan lebih baik. Pemenang Anugerah Turing, Yann LeCun juga mengeluh: "Model kecerdasan buatan sumber terbuka sedang menuju ke arah mengatasi model proprietari

Model proprietari telah menunjukkan potensi yang besar dari segi prestasi teknikal dan keupayaan inovasi , tetapi disebabkan oleh bukan-. ciri sumber terbuka, ia menghalang pembangunan LLM. Walaupun sesetengah model sumber terbuka menyediakan pelbagai pilihan kepada pengamal dan penyelidik, kebanyakannya hanya mendedahkan berat model akhir atau kod inferens, dan peningkatan jumlah laporan teknikal mengehadkan skopnya kepada reka bentuk peringkat atas dan statistik permukaan. Strategi sumber tertutup ini bukan sahaja mengehadkan pembangunan model sumber terbuka, tetapi juga menghalang kemajuan keseluruhan bidang penyelidikan LLM ke tahap yang besar Ini bermakna model ini perlu dikongsi dengan lebih komprehensif dan mendalam, termasuk data latihan. Butiran algoritma, cabaran pelaksanaan dan butiran penilaian prestasi.

Para penyelidik dari Cerebras, Petuum dan MBZUAI bersama-sama mencadangkan LLM360. Ini adalah inisiatif LLM sumber terbuka yang komprehensif yang menyokong menyediakan komuniti dengan semua yang berkaitan dengan latihan LLM, termasuk kod dan data latihan, pusat pemeriksaan model dan hasil perantaraan. Matlamat LLM360 adalah untuk menjadikan proses latihan LLM telus dan boleh dihasilkan semula untuk semua orang, sekali gus menggalakkan pembangunan penyelidikan kecerdasan buatan terbuka dan kolaboratif.

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus


Alamat kertas: https://arxiv.org/pdf/2312.06550.pdf
  • halaman web
  • Blog: https://www.llm360.ai/blog/introducing-llm360-fully-transparent-open-source-llms.html
  • Para penyelidik telah merumuskan seni bina LLM360, memfokuskan padanya Prinsip reka bentuk dan rasional untuk menjadi sumber terbuka sepenuhnya. Mereka menentukan komponen rangka kerja LLM360, termasuk butiran khusus seperti set data, kod dan konfigurasi, pusat pemeriksaan model, metrik dan banyak lagi. LLM360 menetapkan contoh ketelusan untuk model sumber terbuka semasa dan akan datang.

Para penyelidik telah mengeluarkan dua model bahasa berskala besar yang dipralatih dari awal di bawah rangka kerja sumber terbuka LLM360: AMBER dan CRYSTALCODER. AMBER ialah model bahasa Inggeris 7B yang telah dilatih berdasarkan token 1.3T. CRYSTALCODER ialah model bahasa Inggeris 7B dan bahasa kod yang telah dilatih berdasarkan token 1.4T. Dalam artikel ini, penyelidik meringkaskan butiran pembangunan, keputusan penilaian awal, pemerhatian, dan pengalaman serta pengajaran yang dipelajari daripada kedua-dua model ini. Terutama, pada masa dikeluarkan, AMBER dan CRYSTALCODER masing-masing menyelamatkan 360 dan 143 pusat pemeriksaan model semasa latihan.

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telusSekarang, mari kita lihat perincian artikel

Rangka kerja LLM360

yang akan disediakan oleh LLM360 dan kod untuk data yang diperlukan untuk LLM36 proses pra-latihan. Bagi memastikan kerja sedia ada dapat diedarkan dan dikongsi dengan lebih baik dalam masyarakat. Ia terutamanya mengandungi bahagian berikut:

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

1. Set data latihan dan kod pemprosesan data

Set data pra-latihan adalah penting untuk prestasi model bahasa besar. Oleh itu, adalah penting untuk memahami set data pra-latihan untuk menilai isu tingkah laku yang berpotensi dan berat sebelah. Selain itu, set data pra-latihan yang tersedia untuk umum membantu meningkatkan kebolehskalaan LLM apabila kemudiannya diperhalusi dan disesuaikan dengan pelbagai domain. Penyelidikan terkini menunjukkan bahawa latihan pada data berulang secara tidak seimbang mengurangkan prestasi akhir model. Oleh itu, mendedahkan data pra-latihan asal membantu mengelak daripada menggunakan data pendua apabila memperhalusi hiliran atau meneruskan pra-latihan dalam domain tertentu. Berdasarkan sebab di atas, LLM360 menyokong pendedahan set data mentah model bahasa besar. Di mana sesuai, butiran tentang penapisan data, pemprosesan dan urutan latihan juga harus didedahkan.

Kandungan yang perlu ditulis semula ialah: 2. Kod latihan, hiperparameter dan konfigurasi

Kod latihan, hiperparameter dan konfigurasi mempunyai kesan yang ketara pada prestasi dan kualiti latihan LLM, tetapi tidak selalu didedahkan kepada umum. Dalam LLM360, penyelidik membuka sumber semua kod latihan, parameter latihan dan konfigurasi sistem rangka kerja pra-latihan.

3. Pusat pemeriksaan model ditulis semula sebagai: 3. Pusat pemeriksaan model

Ia juga agak berguna untuk menyimpan pusat pemeriksaan model dengan kerap. Mereka bukan sahaja penting untuk pemulihan kegagalan semasa latihan, tetapi ia juga berguna untuk penyelidikan selepas latihan ini membolehkan penyelidik seterusnya meneruskan latihan model dari beberapa titik permulaan tanpa perlu berlatih dari awal, membantu dalam kebolehulangan. penyelidikan mendalam.

4. Penunjuk prestasi

Melatih LLM selalunya mengambil masa berminggu-minggu hingga berbulan-bulan, dan trend evolusi semasa latihan boleh memberikan maklumat yang berharga. Walau bagaimanapun, log terperinci dan metrik perantaraan latihan pada masa ini hanya tersedia kepada mereka yang pernah mengalaminya, yang menghalang penyelidikan komprehensif tentang LLM. Statistik ini selalunya mengandungi cerapan utama yang sukar dikesan. Malah analisis mudah seperti pengiraan varians pada langkah-langkah ini boleh mendedahkan penemuan penting. Sebagai contoh, pasukan penyelidik GLM mencadangkan algoritma pengecutan kecerunan yang berkesan mengendalikan pancang kerugian dan kehilangan NaN dengan menganalisis gelagat spesifikasi kecerunan.

Amber

AMBER ialah ahli pertama "keluarga" LLM360, dan versi diperhalusinya: AMBERCHAT dan AMBERSAFE turut dikeluarkan.

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

Apa yang perlu ditulis semula: Butiran data dan model

Perincian Jadual 2 set data pra-latihan AMBER, yang mengandungi 1.26 penanda T Ini termasuk kaedah prapemprosesan data, format, nisbah pencampuran data, serta butiran seni bina dan hiperparameter pralatihan khusus model AMBER. Untuk maklumat terperinci, sila rujuk halaman utama projek asas kod LLM360

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

AMBER menggunakan struktur model yang sama seperti LLaMA 7B4 Jadual 3 meringkaskan konfigurasi struktur terperinci LLM

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

.

lebih awal Dari segi latihan dan hiperparameter, para penyelidik mencuba yang terbaik untuk mengikuti hiperparameter pra-latihan LLaMA. AMBER dilatih menggunakan pengoptimum AdamW, dan hiperparameter ialah: β₁=0.9, β₂=0.95. Selain itu, penyelidik telah mengeluarkan beberapa versi AMBER yang diperhalusi: AMBERCHAT dan AMBERSAFE. AMBERCHAT diperhalusi berdasarkan set data latihan arahan WizardLM. Untuk butiran parameter lanjut, sila rujuk teks asal

Untuk mencapai tujuan tidak mengubah makna asal, kandungan perlu ditulis semula ke dalam bahasa Cina. Berikut ialah penulisan semula "Eksperimen dan Keputusan": Menjalankan percubaan dan analisis keputusan

Para penyelidik menggunakan empat set data penanda aras pada kedudukan LLM Terbuka untuk menilai prestasi AMBER. Seperti yang ditunjukkan dalam Rajah 4, dalam set data HellaSwag dan ARC, skor AMBER meningkat secara beransur-ansur semasa tempoh pra-latihan, manakala dalam set data TruthfulQA, skor berkurangan apabila latihan diteruskan. Dalam set data MMLU, markah AMBER menurun pada peringkat awal pra-latihan, dan kemudian mula meningkat

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

Dalam Jadual 4, penyelidik membandingkan prestasi model AMBER dengan OpenLLaMA, RedPajama-INCITE, Falcon Model MPT yang dilatih dalam tempoh masa yang sama telah dibandingkan. Banyak model diilhamkan oleh LLaMA. Ia boleh didapati bahawa skor AMBER lebih baik pada MMLU tetapi berprestasi lebih teruk pada ARC. Prestasi AMBER agak kukuh berbanding model lain yang serupa.

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

CRYSTALCODER

Ahli kedua "keluarga besar" LLM360 ialah CrystalCoder.

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

🎜🎜

CrystalCoder ialah model bahasa 7B yang dilatih pada token 1.4 T, mencapai keseimbangan antara pengekodan dan keupayaan bahasa. Tidak seperti kebanyakan LLM kod sebelumnya, CrystalCoder dilatih pada campuran teks dan data kod yang teliti untuk memaksimumkan utiliti dalam kedua-dua domain. Berbanding dengan Kod Llama 2, data kod CrystalCoder diperkenalkan lebih awal dalam proses pra-latihan. Di samping itu, para penyelidik melatih CrystalCoder pada Python dan bahasa pengaturcaraan web untuk meningkatkan kegunaannya sebagai pembantu pengaturcaraan.

Seni bina model terbina semula

CrystalCoder mengguna pakai seni bina yang hampir sama dengan LLaMA 7B, menambah parameterisasi kemas kini maksimum (muP). Sebagai tambahan kepada parameterisasi khusus ini, penyelidik juga membuat beberapa pengubahsuaian. Di samping itu, penyelidik juga menggunakan LayerNorm dan bukannya RMSNorm kerana seni bina CG-1 menyokong pengiraan LayerNorm yang cekap.

Untuk mencapai tujuan tidak mengubah maksud asal, kandungan perlu ditulis semula ke dalam bahasa Cina. Berikut ialah penulisan semula "Eksperimen dan Keputusan": Menjalankan percubaan dan analisis keputusan

Pada Papan Pendahulu LLM Terbuka, para penyelidik menjalankan ujian penanda aras pada model, termasuk empat set data penanda aras dan pengekodan set data penanda aras. Seperti yang ditunjukkan dalam Rajah 6 yang merujuk kepada Jadual 5, kita dapat melihat bahawa crystalcoder telah mencapai keseimbangan yang baik antara tugas bahasa dan tugas kod

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

Analysis360 according kepada penyelidikan terdahulu, Dengan menganalisis pusat pemeriksaan perantaraan model, penyelidikan mendalam adalah mungkin. Para penyelidik berharap LLM360 akan menyediakan komuniti rujukan dan sumber penyelidikan yang berguna. Untuk tujuan ini, mereka mengeluarkan versi awal projek ANALYSIS360, sebuah repositori tersusun analisis pelbagai aspek tingkah laku model, termasuk ciri model dan keputusan penilaian hiliran

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus sebagai contoh analisis ke atas siri pusat pemeriksaan model , penyelidik menjalankan kajian awal tentang hafalan dalam LLM. Penyelidikan baru-baru ini telah menunjukkan bahawa LLM mungkin menghafal sebahagian besar data latihan dan data ini boleh diambil dengan gesaan yang sesuai. Penghafalan ini bukan sahaja mempunyai masalah dengan membocorkan data latihan persendirian, tetapi ia juga boleh merendahkan prestasi LLM jika data latihan mengandungi pengulangan atau kekhususan. Para penyelidik telah membuat semua pusat pemeriksaan dan data awam supaya analisis komprehensif hafalan sepanjang fasa latihan dapat dijalankan

Berikut adalah kaedah skor hafalan yang digunakan dalam artikel ini, yang bermaksud bahawa selepas gesaan panjang k, panjang seterusnya ialah l Ketepatan token. Untuk tetapan skor memori tertentu, sila rujuk artikel asal.

Pengagihan skor memoization sebanyak 10 pusat pemeriksaan terpilih dibentangkan dalam Rajah 7

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

Penyelidik mengumpulkan blok data mengikut pusat pemeriksaan yang dipilih, dan skor memoin untuk setiap blok kumpulan bagi setiap checkpoint diplot dalam Rajah 8 . Mereka mendapati bahawa pusat pemeriksaan AMBER menghafal data terkini lebih baik daripada data sebelumnya. Tambahan pula, bagi setiap blok data, skor hafalan berkurangan sedikit selepas latihan tambahan, tetapi kemudiannya terus meningkat.

Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus Rajah 9 menunjukkan perkaitan antara urutan dalam skor hafalan dan nilai k yang boleh diekstrak. Dapat dilihat bahawa terdapat perkaitan yang kuat antara pusat pemeriksaan.

RingkasanSumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus

Pengkaji merumuskan pemerhatian dan beberapa implikasi AMBER dan CRYSTALCODER. Mereka mengatakan pra-latihan adalah tugas intensif pengiraan yang tidak mampu dimiliki oleh banyak makmal akademik atau institusi kecil. Mereka berharap LLM360 dapat memberikan pengetahuan yang menyeluruh dan membolehkan pengguna memahami perkara yang berlaku semasa pra-latihan LLM tanpa perlu melakukannya sendiri

Sila semak teks asal untuk butiran lanjut

Atas ialah kandungan terperinci Sumber terbuka serba lengkap tanpa jalan buntu, LLM360 pasukan Xingbo menjadikan model besar benar-benar telus. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan