Jumlah kandungan berkaitan 3
The Thought Chain CoT berkembang menjadi Thought Map GoT, dan teknologi kejuruteraan segera yang lebih baik daripada Thought Tree telah dilahirkan.
Pengenalan Artikel:Untuk model bahasa besar (LLM) untuk menggunakan sepenuhnya keupayaan mereka, reka bentuk segera yang berkesan adalah penting Atas sebab ini, bidang kejuruteraan segera yang baru muncul. Di antara pelbagai penyelesaian reka bentuk segera, Rantaian Pemikiran (CoT) telah menarik perhatian ramai penyelidik dan pengguna dengan keupayaan penaakulan yang kuat berdasarkan CoT-SC dan Tree of Thinking (ToT) yang lebih lanjut juga telah menerima banyak perhatian. Baru-baru ini, pasukan penyelidik dari ETH Zurich, Cledar dan Universiti Teknologi Warsaw mencadangkan idea selanjutnya: Peta Minda (GoT). Membenarkan pemikiran daripada rantai kepada pokok kepada graf, keupayaan untuk membina proses penaakulan untuk LLM telah dipertingkatkan secara berterusan, dan penyelidik juga telah
2023-09-05
komen 0
785
o1带火的CoT到底行不行?新论文引发了论战
Pengenalan Artikel:ToCoTornottoCoT?OpenAIο1的诞生极大地提升了人们对LLM推理能力和思维链(CoT)的兴趣。一时之间,似乎思维链很快就会成为所有LLM的标配,但思维链并非万能,就连OpenAI自己也提到o1在某些任务上的表现并不比GPT-4o强,尤其是以语言为中心的任务。近日,一篇来自德克萨斯大学奥斯汀分校、约翰·霍普金斯大学和普林斯顿大学的论文引发了热议,其模仿莎士比亚《哈姆雷特》的台词提出了一个对AI研究者和实践者来说至关重要的问题:ToCoTornotto
2024-09-20
komen
651
两个小模型互相验证,直接比肩大模型?微软的rStar甚至没用CoT和微调
Pengenalan Artikel:互相检查,让小模型也能解决大问题。众所周知,LLM很强大,但执行复杂推理的能力还不够强。举个例子,在GSM8K数据集上,Mistral-7B即使使用思维链(CoT)等技术,也只能达到36.5%的准确度。尽管微调确实也能有效地提升推理能力,但大多数LLM依靠的微调数据都是经过GPT-4等更强大模型蒸馏过的,甚至可能原本就是这些强大模型合成的。同时,研究者们也在积极开发一种能提供辅助但也更困难的方法:使用一个更优的教师LLM来提升推理能力。为了在没有更优模型的前提下提升推理能力,一种颇有希望的范式是利用LLM
2024-08-16
komen
944