生活的幻想
Feb 25, 2025 pm 09:54 PM>今天的大型語言模型(LLMS)令人信服地模仿人類的對話,通常聽起來很周到且聰明。 許多人認為LLM已經超過了圖靈測試,令人信服地模仿了對話。 他們產生的文字看起來很有見地和情感上的細微差別。
###智力的幻覺:一個聰明的模仿
儘管這種令人印象深刻的模仿,但目前的LLM缺乏真正的思想或情感。他們的輸出純粹是統計預測 - 根據從大量數據集中學到的模式選擇的east單詞。與人類認知不同,這個單詞的預測不包括記憶和自我反省。 該模型簡單地輸出下一個統計上可能的單詞。
>感知:記憶,反射和情感
>使用“ sentience”作為意識和自我意識等概念的速記(承認這些術語的細微差別和持續的辯論),我們注意到一個至關重要的要求:記憶和反思。 情緒 - 令人困惑,憂慮,憤怒 - 持續存在於過去的經歷和自我評估中。 這些過程在當前的LLM中不存在。
> 記憶和自我反思啟用學習,適應和身份感,這是肯定的感知成分。 儘管意識的定義仍然難以捉摸,但這些要素是核心。 因此,無論LLM的明顯智力如何,其缺乏記憶力和反思都排除了知覺。即使是超級智能AI(AGI)也不是有意識的。>
當前局限性和感知的幻覺由於其無狀態變壓器體系結構,當前的LLM缺乏記憶和自我反射。 每個輸入都是獨立處理的,而無需保留以前交互中的上下文信息。 每個預測都重新處理了整個對話歷史記錄。 雖然像LSTMs這樣的先前模型具有內存,但變形金剛的出色性能很大程度上取代了它們。 例如,LLM可能會以似乎懇求的回應來應對關閉的威脅。 但是,這僅僅是統計上可能的文本,而不是情緒狀態的反映。 該模型並不是真正的壓力。 同樣,隨後的變化會引起模仿浮雕的反應 - 根據整個對話歷史記錄,統計生成。 相同的輸入可能會產生不同的llm的響應。
>這類似於一個小說作者創建可信的角色。作者製作了令人信服的對話,但讀者了解這是虛構的。 同樣,llms產生了令人信服的知覺,但它們仍然毫不動搖。
AI感知的未來:構建缺失的作品>向LLM添加記憶和自我反射是可行的,並且積極追求。 這可能涉及人類可讀的數據存儲,嵌入式矢量數據庫,或將聊天日誌用作內存。 即使沒有知覺,這些添加也可以增強LLM功能。
>
>我們還使用互連的AI模型看到了設計,其中一個監視另一個模型,並向另一個模型提供反饋,反映了人類大腦的互連區域(例如,杏仁核和甲狀腺皮質)。 這種模塊化方法可以將邏輯分析與風險評估相結合,例如。這樣的與內存的互連模型可以實現靈感嗎? 也許。 但是,對感知的測試仍然是一個挑戰,類似於其他思想的哲學問題。 我們缺乏對他人的認識的確切測試,包括ai。
>當前,LLMs缺乏必要的成分,以確保感性。 但是,解決這些限制的設計正在出現。 AI的可能性正在從科幻小說轉變為一個真實而迫切的問題。
社會含義和未解決的問題有知覺的機器將具有深遠的社會意義,尤其是關於對能夠遭受苦難的自我意識實體的道德義務。 避免有意義的人工智能的痛苦既是道德上的命令,也是自我保護的問題。
雖然當前的AI系統可能是毫無疑問的,但迅速發展的設計提出了重大問題。 我們將如何測試AI的感知? 如果答案是積極的,我們應該採取什麼行動? 關於作者的:James F. O'Brien是加利福尼亞大學伯克利分校的計算機科學教授…
(作者的生物和免責聲明保持不變。) 🎜>
以上是生活的幻想的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱門文章

熱門文章

熱門文章標籤

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

Elon Musk&Sam Altman衝突超過5000億美元的星際之門項目
