Rumah > Peranti teknologi > AI > Fikirkan LLM sebagai sistem pengendalian, ia mempunyai konteks 'maya' tanpa had, kerja baharu Berkeley telah menerima 1.7k bintang

Fikirkan LLM sebagai sistem pengendalian, ia mempunyai konteks 'maya' tanpa had, kerja baharu Berkeley telah menerima 1.7k bintang

WBOY
Lepaskan: 2023-10-19 12:21:11
ke hadapan
1184 orang telah melayarinya
把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

Dalam beberapa tahun kebelakangan ini, model bahasa besar (LLM) dan seni bina pengubah asasnya telah menjadi asas AI perbualan dan telah melahirkan pelbagai aplikasi pengguna dan perusahaan. Walaupun terdapat kemajuan yang besar, tetingkap konteks panjang tetap yang digunakan oleh LLM sangat mengehadkan kebolehgunaan untuk perbualan panjang atau penaakulan dokumen panjang. Walaupun untuk LLM sumber terbuka yang paling banyak digunakan, panjang input maksimumnya hanya membenarkan sokongan beberapa dozen balasan mesej atau inferens dokumen pendek.

Pada masa yang sama, dihadkan oleh mekanisme perhatian kendiri seni bina pengubah, hanya memanjangkan panjang konteks pengubah juga akan menyebabkan masa pengiraan dan kos memori meningkat secara eksponen, yang menjadikan seni bina konteks panjang baharu sebagai penyelidikan yang mendesak topik.

Walau bagaimanapun, walaupun kita boleh mengatasi cabaran pengiraan penskalaan konteks, penyelidikan terkini menunjukkan bahawa model konteks panjang bergelut untuk menggunakan konteks tambahan dengan berkesan.

Bagaimana untuk menyelesaikannya? Memandangkan sumber besar yang diperlukan untuk melatih SOTA LLM dan pulangan penskalaan konteks yang semakin berkurangan, kami memerlukan teknik alternatif yang menyokong konteks yang panjang dengan segera. Penyelidik di University of California, Berkeley, telah membuat kemajuan baru dalam hal ini.

Dalam artikel ini, penyelidik meneroka cara memberikan ilusi konteks tak terhingga sambil terus menggunakan model konteks tetap. Pendekatan mereka meminjam idea daripada paging memori maya, membolehkan aplikasi memproses set data yang jauh melebihi memori yang tersedia.

Berdasarkan idea ini, penyelidik mengambil kesempatan daripada kemajuan terkini dalam keupayaan memanggil fungsi ejen LLM untuk mereka bentuk sistem LLM yang diilhamkan oleh OS untuk pengurusan konteks maya - MemGPT.

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

Laman utama kertas: https://memgpt.ai/

alamat arXiv: https://arxiv.org/pdf/2310.08560.pdf

Projek ini telah menjadi sumber terbuka dan telah memperoleh 1.7k bintang di GitHub kuantiti.

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

Alamat GitHub: https://github.com/cpacker/MemGPT

Tinjauan Keseluruhan Kaedah

Penyelidikan ini mendapat inspirasi daripada pengurusan memori hierarki sistem pengendalian tradisional, dalam sistem pengendalian yang cekap (efficiently windows). maklumat "halaman" masuk dan keluar antara "memori utama") dan storan luaran. MemGPT bertanggungjawab untuk menguruskan aliran kawalan antara memori, modul pemprosesan LLM dan pengguna. Reka bentuk ini membenarkan pengubahsuaian konteks berulang semasa satu tugas, membolehkan ejen menggunakan tetingkap konteks terhadnya dengan lebih cekap.

MemGPT menganggap tetingkap konteks sebagai sumber ingatan yang terhad dan mereka bentuk struktur hierarki untuk LLM yang serupa dengan ingatan hierarki dalam sistem pengendalian tradisional (Patterson et al., 1988). Untuk memberikan panjang konteks yang lebih panjang, penyelidikan ini membolehkan LLM mengurus kandungan yang diletakkan dalam tetingkap konteksnya melalui "LLM OS" - MemGPT. MemGPT membolehkan LLM mendapatkan semula data sejarah berkaitan yang hilang dalam konteks, serupa dengan kerosakan halaman dalam sistem pengendalian. Selain itu, ejen boleh mengubah suai secara berulang kandungan tetingkap konteks tugas tunggal, sama seperti proses boleh berulang kali mengakses memori maya.

MemGPT membolehkan LLM mengendalikan konteks tanpa had apabila tetingkap konteks terhad Komponen MemGPT ditunjukkan dalam Rajah 1 di bawah.

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

MemGPT menyelaras pergerakan data antara konteks utama (kandungan dalam tetingkap konteks) dan konteks luaran melalui panggilan fungsi MemGPT kemas kini dan mendapatkan semula secara autonomi berdasarkan konteks semasa.

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star
把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

Perlu diperhatikan bahawa tetingkap konteks perlu menggunakan token amaran untuk menandakan hadnya, seperti yang ditunjukkan dalam Rajah 3 di bawah:

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

Eksperimen dan keputusan

Dalam bahagian eksperimen, penyelidik menilai MemGPT dalam dua domain konteks panjang, iaitu ejen perbualan dan pemprosesan dokumen. Untuk ejen perbualan, mereka melanjutkan set data sembang berbilang sesi sedia ada (Xu et al. (2021)) dan memperkenalkan dua tugas perbualan baharu untuk menilai keupayaan ejen untuk mengekalkan pengetahuan dalam perbualan yang panjang. Untuk analisis dokumen, mereka menanda aras MemGPT pada tugas yang dicadangkan oleh Liu et al (2023a), termasuk menjawab soalan dan mendapatkan semula nilai kunci dokumen panjang. MemGPT untuk ejen perbualan

Yang pertama ialah konsistensi, iaitu ejen harus mengekalkan keselarasan perbualan, dan fakta, rujukan dan peristiwa baharu yang disediakan hendaklah konsisten dengan kenyataan sebelumnya daripada pengguna dan ejen.

    Yang kedua ialah engagement, iaitu ejen harus menggunakan pengetahuan jangka panjang pengguna untuk memperibadikan respon. Merujuk kepada perbualan sebelumnya boleh menjadikan perbualan lebih semula jadi dan menarik.
  • Oleh itu, penyelidik menilai MemGPT berdasarkan dua kriteria ini:
  • Sama ada MemiGPT boleh dieksplorasikan untuk meningkatkan konsistensi perbualan? Bolehkah anda mengingati fakta, petikan, peristiwa yang berkaitan daripada interaksi masa lalu untuk mengekalkan keselarasan?

    MemGPT Adakah mungkin untuk menggunakan memori untuk menjana perbualan yang lebih menarik? Menggabungkan maklumat pengguna jauh secara spontan untuk memperibadikan maklumat?
  • Mengenai set data yang digunakan, penyelidik menggunakan model garis dasar MemGPT dan konteks tetap pada sembang berbilang sesi (MSC) yang dicadangkan oleh Xu et al ) Kembangkan penilaian dan perbandingan.
  • Mula-mula mari kita nilai konsistensi. Para penyelidik memperkenalkan tugas mendapatkan ingatan mendalam (DMR) berdasarkan set data MSC untuk menguji konsistensi ejen perbualan. Dalam DMR, pengguna mengemukakan soalan kepada ejen perbualan, dan soalan itu secara eksplisit merujuk perbualan sebelumnya, dengan jangkaan bahawa julat jawapan akan menjadi sangat sempit. Untuk butiran, sila rujuk contoh dalam Rajah 5 di bawah.

MemGPT menggunakan memori untuk mengekalkan konsistensi. Jadual 2 di bawah menunjukkan perbandingan prestasi MemGPT terhadap model garis dasar memori tetap, termasuk GPT-3.5 dan GPT-4.

Ia boleh dilihat bahawa MemGPT jauh lebih baik daripada GPT-3.5 dan GPT-4 dari segi ketepatan pertimbangan LLM dan skor ROUGE-L. MemGPT boleh menggunakan ingatan ingat untuk menanyakan sejarah perbualan yang lalu untuk menjawab soalan DMR, dan bukannya bergantung pada ringkasan rekursif untuk mengembangkan konteks.
把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

Kemudian dalam tugas "Pembuka Perbualan", penyelidik menilai keupayaan ejen untuk mengeluarkan mesej menarik daripada pengetahuan yang terkumpul dalam perbualan sebelumnya dan menyampaikannya kepada kebolehan pengguna.

Para penyelidik menunjukkan markah CSIM bagi ucapan pembukaan MemGPT dalam Jadual 3 di bawah. Keputusan menunjukkan bahawa MemGPT mampu menghasilkan intro yang menarik yang berprestasi baik atau lebih baik daripada intro tulisan tangan manusia. Ia juga diperhatikan bahawa MemGPT cenderung untuk menghasilkan bukaan yang lebih panjang dan meliputi lebih banyak maklumat watak daripada garis dasar manusia. Rajah 6 di bawah adalah contoh. MemGPT untuk analisis dokumen
Untuk menilai keupayaan MemGPT menganalisis dokumen, para penyelidik menanda aras MemGPT dan model garis dasar konteks tetap pada tugas QA dokumen pembaca retriever Liu et al (2023a). 把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star
Hasilnya menunjukkan bahawa MemGPT mampu membuat berbilang panggilan dengan cekap kepada retriever dengan menanyakan storan arkib, membolehkannya menskalakan kepada panjang konteks berkesan yang lebih besar. MemGPT mengambil semula dokumen secara aktif daripada stor arkib dan boleh melayari hasil secara berulang supaya jumlah dokumen yang tersedia untuknya tidak lagi dihadkan oleh bilangan dokumen dalam tetingkap konteks pemproses LLM yang berkenaan.

Disebabkan oleh pengehadan carian persamaan berasaskan benam, tugas QA dokumen menimbulkan cabaran hebat kepada semua kaedah. Penyelidik memerhatikan bahawa MemGPT menghentikan penomboran hasil perangkak sebelum pangkalan data perangkak habis.

Selain itu, terdapat pertukaran dalam kapasiti pengambilan dokumen yang dicipta oleh operasi MemGPT yang lebih kompleks Seperti yang ditunjukkan dalam Rajah 7 di bawah, ketepatan puratanya adalah lebih rendah daripada GPT-4 (lebih tinggi daripada GPT -3.5), tetapi ia boleh dengan mudah Kembangkan ke dokumen yang lebih besar.

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k starPara penyelidik juga memperkenalkan tugas baharu berdasarkan perolehan nilai kunci sintetik, iaitu Pengambilan Nilai-Kunci Bersarang Untuk menunjukkan cara MemGPT menyusun maklumat daripada berbilang sumber data.

Daripada keputusan, walaupun GPT-3.5 dan GPT-4 menunjukkan prestasi yang baik pada tugasan nilai kunci asal, mereka menunjukkan prestasi yang lemah pada tugas mendapatkan nilai kunci bersarang. MemGPT tidak terjejas oleh bilangan tahap bersarang dan boleh melakukan carian bersarang dengan berulang kali mengakses pasangan nilai kunci yang disimpan dalam memori utama melalui pertanyaan fungsi.

Prestasi MemGPT pada tugas mendapatkan nilai kunci bersarang menunjukkan keupayaannya untuk melakukan berbilang carian menggunakan gabungan berbilang pertanyaan.

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

Sila rujuk kertas asal untuk butiran lanjut teknikal dan keputusan percubaan.

Atas ialah kandungan terperinci Fikirkan LLM sebagai sistem pengendalian, ia mempunyai konteks 'maya' tanpa had, kerja baharu Berkeley telah menerima 1.7k bintang. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:jiqizhixin.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan