Insgesamt3 bezogener Inhalt gefunden
Aus der Thought Chain CoT entwickelte sich die Thought Map GoT, und eine schnelle technische Technologie, die besser war als der Thought Tree, war geboren.
Artikeleinführung:Damit große Sprachmodelle (LLM) ihre Fähigkeiten voll ausschöpfen können, ist ein effektives Prompt-Design unerlässlich. Aus diesem Grund ist sogar das aufstrebende Gebiet des Prompt-Engineerings entstanden. Unter den verschiedenen Prompt-Design-Lösungen hat die Chain of Thought (CoT) mit ihren leistungsstarken Argumentationsfunktionen die Aufmerksamkeit vieler Forscher und Benutzer auf sich gezogen. Auch das darauf basierende verbesserte CoT-SC und der weitere Thinking Tree (ToT) haben viel Aufmerksamkeit erregt Aufmerksamkeit. . Kürzlich schlug ein Forschungsteam der ETH Zürich, Cledar und der Technischen Universität Warschau eine weitere Idee vor: Maps of Mind (GoT). Durch die Möglichkeit, von Ketten über Bäume bis hin zu Diagrammen zu denken, wurde die Fähigkeit, Argumentationsprozesse für LLM zu entwickeln, kontinuierlich verbessert, und dies gilt auch für Forscher
2023-09-05
Kommentar 0
785
o1带火的CoT到底行不行?新论文引发了论战
Artikeleinführung:ToCoTornottoCoT?OpenAIο1的诞生极大地提升了人们对LLM推理能力和思维链(CoT)的兴趣。一时之间,似乎思维链很快就会成为所有LLM的标配,但思维链并非万能,就连OpenAI自己也提到o1在某些任务上的表现并不比GPT-4o强,尤其是以语言为中心的任务。近日,一篇来自德克萨斯大学奥斯汀分校、约翰·霍普金斯大学和普林斯顿大学的论文引发了热议,其模仿莎士比亚《哈姆雷特》的台词提出了一个对AI研究者和实践者来说至关重要的问题:ToCoTornotto
2024-09-20
Kommentar
651
两个小模型互相验证,直接比肩大模型?微软的rStar甚至没用CoT和微调
Artikeleinführung:互相检查,让小模型也能解决大问题。众所周知,LLM很强大,但执行复杂推理的能力还不够强。举个例子,在GSM8K数据集上,Mistral-7B即使使用思维链(CoT)等技术,也只能达到36.5%的准确度。尽管微调确实也能有效地提升推理能力,但大多数LLM依靠的微调数据都是经过GPT-4等更强大模型蒸馏过的,甚至可能原本就是这些强大模型合成的。同时,研究者们也在积极开发一种能提供辅助但也更困难的方法:使用一个更优的教师LLM来提升推理能力。为了在没有更优模型的前提下提升推理能力,一种颇有希望的范式是利用LLM
2024-08-16
Kommentar
944