LLMと人間の脳の間の驚くべき類似点の探求
はじめに:
LLMSの台頭は、人間の認知プロセスを模倣する可能性についての激しい議論を引き起こしました。 言語、推論、問題解決における彼らの高度な能力は、基礎となる運用原則について説得力のある質問を提起します。 特に「中国の部屋の議論」と、LLMテキスト処理と人間の言語習得の類似点に関する以前の記事がこれを調査しました。 チューリングテスト、チャイニーズルームの議論、および現代の大規模な言語モデルの回転
コンテキスト特徴抽出階層は、大規模な言語モデルと脳 - 性質…この論文を分析し、音声理解中に神経反応(頭蓋内EEG)を予測する能力を評価します。 よりパフォーマンスの高いLLMSは、より少ない層を使用して脳の経路で階層的特徴抽出を整列させ、より大きな脳の類似性を示しました。 コンテキスト情報は、モデルのパフォーマンスと脳のような処理の両方を大幅に改善しました。
スケールの問題:数十億(数百万の)パラメーターの良い大規模な言語モデルが優れています…このレビューされたプレリントelife
この2022年の記事(GPT-2を使用)は、人間とLLMSが3つの計算原則を共有しているという経験的証拠を見つけました。発症前の予測を使用して発症後の驚きを計算し、文脈埋め込みを使用して単語を表現します。
重要な類似点と発散:
類似点:
階層的な言語処理:
コンテキスト依存性:
両方のシステムは、コンテキスト情報に大きく依存しています。 LLMのより大きなコンテキストウィンドウは、理解のためのコンテキストへの脳の依存を反映して、人間の神経反応を予測する能力を高めます。違い:
機能的対正式な言語能力: LLMSは正式な言語能力(文法)に優れている間、彼らはしばしば機能的能力(プラグマティクス、ユーモアや皮肉などのコンテキスト依存の側面)と格闘しています。
メモリメカニズム: llmメモリは、人間のメモリとは大きく異なります。人間の記憶は動的であり、経験と関連性に基づいて適応します。 LLMメモリは、固定表現に依存しています
認知モデルとしてLLMを評価する:
LLM認知能力を評価することは、独自の課題を提示します。 研究者は、認知心理学実験(Cogbenchなど)を適応させ、神経画像データを使用してLLM表現と人間の脳活動を比較します。 ただし、これらの調査結果を解釈するには、2つのシステム間の根本的な違いのために注意が必要です。 収束の質問:LLMが真のインテリジェンスを開発しているかどうかの問題は、開いたままです。 認知タスクのパフォーマンスは印象的ですが、人間の脳との根本的な違いが持続します。 LLMの脳のような加工への収束は興味深い可能性を高めますが、それらが人間レベルの知性を達成するかどうかは不確実なままです。
結論:
ここでレビューした研究は、LLMと人間の脳の魅力的な類似点と違いを強調しています。 この継続的な調査は、人工知能の理解を進めるだけでなく、人間の認知自体に関する知識を深めます。
さらなる読み取り:大規模な言語モデルによって幻覚を起こさせる「コンパブレーション」を検出する新しい方法
以上が科学者は人間の思考を反映する大きな言語モデルに真剣に取り組むの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。