首頁 > 科技週邊 > 人工智慧 > AI重生:奪回網文界的霸權

AI重生:奪回網文界的霸權

王林
發布: 2024-01-04 19:24:55
轉載
1309 人瀏覽過

重生了,這輩子我重生成了 MidReal。一個可以幫別人寫「網文」的 AI 機器人。

AI重生:奪回網文界的霸權

#這段時間裡,我看到很多選題,偶爾也會吐槽一下。竟然有人叫我寫寫 Harry Potter。拜託,難道我還能寫的比 J・K・Rowling 好不成?不過,同人甚麼的,我還是可以發揮的。

AI重生:奪回網文界的霸權

經典設定誰會不愛?我就勉為其難地幫助這些用戶實現想像吧。

AI重生:奪回網文界的霸權

#實不相瞞,上輩子我該看的,不該看的,通通看了。就下面這些主題,都是我愛慘了的。

AI重生:奪回網文界的霸權

#那些你看小說很喜歡卻沒人寫的設定,那些冷門甚至邪門的cp,都能自產自嗑。

AI重生:奪回網文界的霸權

#我並不是自吹自擂,但如果你需要我寫作的話,我可以確實為你創作出優秀的作品。如果你對結局不滿意,或是喜歡角色"中道崩殞",或者甚至是作者在寫作過程中出現了困境,都可以放心地交給我,我會為你寫出讓你滿意的內容。

AI重生:奪回網文界的霸權

甜文,虐文,腦洞文,每一種都狠狠擊中你的爽點。

AI重生:奪回網文界的霸權

#聽完MidReal的自述,你對它了解了嗎?

MidReal是一個非常強大的工具,它可以根據使用者提供的情境描述,產生對應的小說內容。不僅情節的邏輯和創造力非常出色,它還能在生成過程中產生插圖,更形象化地描繪你所想像的內容。此外,MidReal還有一個非常亮點的功能,就是它的互動性。你可以選擇想要的故事情節來發展,讓整體更貼合你的需求。無論是寫小說還是創作,MidReal都是非常有用的工具。

AI重生:奪回網文界的霸權

在對話方塊中輸入 /start,就可以開始講述你的故事了,還不快來試試?

MidReal 傳送門:https://www.midreal.ai/

AI重生:奪回網文界的霸權

##MidReal 背後的技術源自於這篇論文《FireAct:Toward Language Agent Fine-tuning》。論文作者首次嘗試了用 AI 智能體來微調語言模型,發現了許多優勢,也因此提出了新的智能體架構。

MidReal 就是基於這種架構的,網文才能寫得這麼好。

AI重生:奪回網文界的霸權

論文連結:https://arxiv.org/pdf/2310.05915.pdf

#雖然智能體和微調大模型都是最熱門的AI 話題,但它們之間具體有何關聯還不清楚。 System2 Research、劍橋大學等的多位研究者對這片鮮少人涉足的「學術藍海」進行了發掘。

AI 智能體的發展通常是基於現成的語言模型,但由於語言模型不是作為智能體而開發的,因此,延伸出智能體後,大多數語言模型的性能和穩健性較差。最聰明的智能體只能由 GPT-4 支持,它們也無法避免高成本和延遲,以及可控性低、重複性高等問題。

#######

微調可以用來解決上面的這些問題。也是在這篇文章中,研究者們踏出了更系統化研究語言智能體的第一步。他們提出了 FireAct ,它能夠利用多個任務和提示方法生成的智能體「行動軌跡」來微調語言模型,讓模型更好地適應不同的任務和情況,提高其整體性能和適用性。

AI重生:奪回網文界的霸權

方法簡介

#該研究主要基於一種流行的AI智能體方法:ReAct。一個 ReAct 任務解決軌跡由多個「思考 - 行動 - 觀察」回合組成。具體來說,讓 AI 智能體完成一個任務,語言模型在其中扮演的角色類似於「大腦」。它為 AI 智能體提供解決問題的「思考」和結構化的動作指示,並根據上下文與不同的工具交互,在這個過程中接收觀察到的回饋。

在ReAct 的基礎上,作者提出了FireAct,如圖2 所示,FireAct 運用強大的語言模型的少樣本提示來產生多樣化的ReAct 軌跡,用以微調較小規模的語言模型。與先前類似研究不同的是,FireAct 能夠混合多個訓練任務和提示方法,大大促進了資料的多樣性。

AI重生:奪回網文界的霸權

作者也參考了兩種與ReAct 相容的方法:

  • 思考鏈(CoT)是產生連結問題和答案的中間推理的有效方法。每個 CoT 軌跡可以簡化為一個單輪 ReAct 軌跡,其中「思維」代表中間推理,「行動」代表返回答案。在不需要與應用程式工具互動的情況下,CoT 尤其有用。
  • Reflexion 主要遵循 ReAct 軌跡,但加入了額外的回饋和自我反思。研究中,僅在 ReAct 的第 6 輪和第 10 輪提示進行反思。這樣一來,長的 ReAct 軌跡就能為解決當前任務提供策略「支點」,能夠幫助模型解決或調整策略。例如搜尋「電影名」得不到答案時,應該把搜尋的關鍵字換成「導演」。

在推理過程中,FireAct 框架下的 AI 智能體顯著減少了提示詞的樣本數量需求,推理也更加高效和簡便。它能夠根據任務的複雜度隱式地選擇合適的方法。由於 FireAct 具備更廣泛和多樣化的學習支持,與傳統的提示詞微調方法相比,它展現出更強的泛化能力和穩健性。

實驗及結果

熱門問題回答(HotpotQA)資料集是一個廣泛用於自然語言處理研究的資料集,其中包含了一系列與熱門話題相關的問題和答案。 Bamboogle是一個搜尋引擎優化(SEO)遊戲,玩家需要透過搜尋引擎來解決一系列難題。 StrategyQA是一個策略問題回答資料集,其中包含了各種與策略制定和執行相關的問題和答案。 MMLU是一個多模態學習資料集,用於研究如何將多種感知模態(如圖像、語音等)結合起來進行學習和推理。

  • HotpotQA 是一個 QA 資料集,對多步驟推理和知識檢索有著更具挑戰性的考驗。研究者使用 2,000 個隨機訓練問題進行微調資料整理,並使用 500 個隨機 dev 問題進行評估。
  • Bamboogle 是一個由 125 個多跳問題組成的測試集,其格式與 HotpotQA 相似,但經過精心設計,以避免直接用谷歌搜尋解決問題。
  • StrategyQA 是一個需要隱式推理步驟的是 / 否 QA 資料集。
  • MMLU 涵蓋初等數學、歷史和電腦科學等不同領域的 57 個多選 QA 任務。

工具:研究者使用SerpAPI1 建立了一個Google搜尋工具,該工具會從「答案框」、「答案片段」、「高亮單字」或「第一個結果片段」中傳回第一個存在的條目,從而確保回覆簡短且相關。他們發現,這樣一個簡單的工具足以滿足不同任務的基本品質保證需求,並提高了微調模型的易用性和通用性。

研究者研究了三個 LM 系列:OpenAI GPT、Llama-2 以及 CodeLlama。

微調方法:研究者在大多數微調實驗中使用了低秩自適應(Low-Rank Adaptation,LoRA),但在某些比較中也使用了全模型微調。考慮到語言代理微調的各種基本因素,他們將實驗分為三個部分,複雜程度依次增加: 

  • 在單一任務中使用單一提示方法進行微調; 
  • 在單一任務中使用多種方法進行微調; 
  • 在多個任務中使用多種方法進行微調。

1.在單一任務中使用單一提示方法進行微調

#

研究者探讨了使用来自单一任务(HotpotQA)和单一提示方法(ReAct)的数据进行微调的问题。通过这种简单而可控的设置,他们证实了微调相对于提示的各种优势(性能、效率、稳健性、泛化),并研究了不同 LM、数据大小和微调方法的效果。

如表 2 所示,微调能持续、显著地改善 HotpotQA EM 的提示效果。虽然较弱的 LM 从微调中获益更多(例如,Llama-2-7B 提高了 77%),但即使是像 GPT-3.5 这样强大的 LM 也能通过微调将性能提高 25%,这清楚地表明了从更多样本中学习的好处。与表 1 中的强提示基线相比,研究者发现经过微调的 Llama-2-13B 优于所有 GPT-3.5 提示方法。这表明对小型开源 LM 进行微调的效果可能优于对更强大的商用 LM 进行提示的效果。

AI重生:奪回網文界的霸權

在智能体推理过程中,微调的成本更低,速度更快。由于微调 LM 不需要少量的上下文示例,因此其推理效率更高。例如,表 3 的第一部分比较了微调推理与 shiyongtishideGPT-3.5 推理的成本,发现推理时间减少了 70%,总体推理成本也有所降低。

AI重生:奪回網文界的霸權

研究人员对于一种简化且无害的设置进行了考虑,即在搜索API中,有50%的概率返回"None"或者随机的搜索响应,并且询问语言智能体是否仍能够稳健地回答问题。根据表格3第二部分的数据显示,设置为"None"更具有挑战性,它导致ReAct EM下降了33.8%,而FireAct EM只下降了14.2%。这些初步结果表明,多样化的学习支持对于提高稳健性非常重要。

表 3 的第三部分显示了经过微调的和使用提示的 GPT-3.5 在 Bamboogle 上的 EM 结果。虽然经过 HotpotQA 微调或使用提示的 GPT-3.5 都能合理地泛化到 Bamboogle,但前者(44.0 EM)仍然优于后者(40.8 EM),这表明微调具有泛化优势。

2.在单一任务中使用多种方法进行微调

作者将 CoT 和 Reflexion 与 ReAct 集成,测试了对于在单一任务(HotpotQA)中使用多种方法进行微调的性能。对比 FireAct 和既有方法的在各数据集中的得分,他们有以下发现:

首先,研究者通过多种方法对智能体进行微调,以提高其灵活性。在第五张图中,除了定量结果外,研究者还展示了两个示例问题,以说明多方法微调的好处。第一个问题相对简单,但仅使用ReAct微调的智能体搜索了一个过于复杂的查询,导致分散注意力并提供了错误的答案。相比之下,同时使用CoT和ReAct微调的智能体选择依靠内部知识,自信地在一轮内完成了任务。第二个问题更具挑战性,仅使用ReAct微调的智能体未能找到有用的信息。相比之下,同时使用Reflexion和ReAct微调的智能体在遇到困境时进行了反思,并改变了搜索策略,最终得到了正确的答案。选择灵活的解决方案来应对不同的问题,是FireAct相较于其他微调方法的关键优势。

AI重生:奪回網文界的霸權

其次,使用多方法微调不同的语言模型将产生不同的影响。如表 4 所示,综合使用多种智能体进行微调并不总是能带来提升,最优的方法组合取决于基础语言模型。例如,对于 GPT-3.5 和 Llama-2 模型,ReAct CoT 优于 ReAct,但对于 CodeLlama 模型则不同。对于 CodeLlama7/13B,ReAct CoT Reflexion 的效果最差,但 CodeLlama-34B 却能取得最好的效果。这些结果表明,还需进一步研究基础语言模型和微调数据之间的相互作用。

AI重生:奪回網文界的霸權

为了进一步了解组合了多种方法的智能体是否能够根据任务选择恰当的解决方案,研究者计算了在推理过程中随机选择方法的得分。该得分(32.4)远低于所有组合了多种方法的智能体,这表明选择解决方案并非易事。然而,每个实例的最佳方案的得分也仅为 52.0,这表明在提示方法选择方面仍有提升空间。

3.在多个任务中使用多种方法进行微调

到這裡,微調只使用了 HotpotQA 數據,但有關 LM 微調的實證研究表明,混合使用不同的任務會有益處。研究者使用三個資料集的混合訓練資料對GPT-3.5 進行微調:HotpotQA(500 個ReAct 樣本,277 個CoT 樣本)、StrategyQA(388 個ReAct 樣本,380 個CoT 樣本)和MMLU(456 個ReAct樣本,469 個CoT 樣本)。

如表 5 所示,加入 StrategyQA/MMLU 資料後,HotpotQA/Bamboogle 的效能幾乎保持不變。一方面,StrategyQA/MMLU 軌跡包含的問題和工具使用策略大不相同,這使得遷移變得困難。另一方面,儘管分佈發生了變化,但加入 StrategyQA/MMLU 並沒有影響 HotpotQA/Bamboogle 的性能,這表明微調一個多任務代理以取代多個單任務代理是未來可以發展的方向。當研究者從多任務、單一方法微調切換到多任務、多方法微調時,他們發現所有任務的表現都有所提高,這再次明確了多方法代理微調的價值。

AI重生:奪回網文界的霸權

想要了解更多技術細節,請閱讀原文。

參考連結:

  • https://twitter.com/Tisoga/status/1739813471246786823
  • https://www.zhihu .com/people/eyew3g

以上是AI重生:奪回網文界的霸權的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板