今日の大規模な言語モデル(LLM)は、人間のような会話を説得力を持って模倣し、しばしば思慮深く知的に聞こえます。 多くの人は、LLMSがすでにチューリングテストを上回り、対話で人間を説得力を持ってfor辱すると信じています。 彼らは洞察に富んで感情的に微妙に見えるように見えるテキストを生成します
###知性の幻想:巧妙な模倣
この印象的な模倣にもかかわらず、現在のLLMは本物の思考や感情に欠けています。それらの出力は純粋に統計的な予測であり、大規模なデータセットから学んだパターンに基づいて選択された単語です。この単語ごとの予測は、人間の認知とは異なり、記憶と自己反省を除外します。 このモデルは、次の統計的に可能性の高い単語を単純に出力します
centience:記憶、反射、感情
意識や自己認識(これらの用語を取り巻くニュアンスと継続的な議論を認める)などの概念の速記として「センティエンス」を使用すると、重要な要件、記憶と反省に注意します。 感情 - ハッピネス、心配、怒り - は、過去の経験と自己評価に根ざした持続的な状態です。 これらのプロセスは、現在のLLMSには存在しません
記憶と自己反省により、学習、適応、およびアイデンティティの感覚、つまりセンティエンスの本質的な要素が可能になります。 意識の定義はとらえどころのないままですが、これらの要素は中心です。 したがって、LLMの明らかな知性に関係なく、その記憶と反射の欠如は感覚を排除します。スーパーインテリジェントAI(AGI)でさえ、感覚的ではないかもしれません。現在のLLMには、ステートレストランスアーキテクチャによるメモリと自己反省がありません。 各入力は、以前の相互作用からコンテキスト情報を保持することなく、独立して処理されます。 会話履歴全体が、予測ごとに再処理されます。 LSTMSのような以前のモデルにはメモリがありましたが、トランスの優れたパフォーマンスは大部分を置き換えました。 たとえば、LLMは、一見嘆願する反応でシャットダウンの脅威に応答する可能性があります。 ただし、これは単に統計的に可能性の高いテキストであり、感情的な状態を反映するものではありません。 モデルは本当に強調されていません。 同様に、その後の心臓の変化は、レリーフを模倣する応答を引き出します。 同じ入力は、異なるLLMから同様の応答を生成する可能性があります。
これは、信じられるキャラクターを作成するフィクションの著者に類似しています。著者は説得力のある対話を作りますが、読者はそれがフィクションであることを理解しています。 同様に、LLMは感覚の説得力のある幻想を生み出しますが、それらは不安定なままです。
ai centienceの未来:行方不明の部分を構築しますメモリと相互接続されたモデルは、感覚を達成できますか? 多分。 しかし、感覚のテストは、他の心の哲学的問題に似た挑戦のままです。 ai。
現在、LLMは感覚に必要なコンポーネントがありません。 ただし、これらの制限に対処するデザインは出現しています。 感覚的なAIの可能性は、サイエンスフィクションから本当の差し迫った質問に移行しています。社会的意味と未回答の質問
感覚マシンは、特に苦しみが可能な自己認識エンティティに対する倫理的義務に関して、社会的な意味を深めるでしょう。 感覚的なAIの苦しみを避けることは、倫理的な命令であり、自己保存の問題の両方であるでしょう。
現在のAIシステムは不安定である可能性がありますが、急速に進歩する設計が重要な疑問を投げかけています。 AIセンティエンスをどのようにテストしますか? そして、答えが肯定的である場合、どのような行動をとるべきですか?
(著者のバイオと免責事項は変わらないままです。)
以上が人生の幻想の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。