最近、ChatGPT の火災により、人々は第 4 の技術革命への扉が開きつつある兆候を目にするようになりましたが、多くの人々はまた、AI が人類を滅ぼすリスクがあるのではないかと心配し始めています。
これは誇張ではなく、最近多くの大企業がそのような懸念を表明しています。
ChatGPT の父であるサム アルトマン、人工知能のゴッドファーザーであるジェフリー ヒントン、ビル ゲイツ、ニューヨーク大学教授のゲイリー マーカスは最近、私たちに次のように思い出させてくれました。 , AIは本当に人類を滅ぼすかもしれない。
しかし、Meta の主任 AI サイエンティストである LeCun 氏のスタイルは異なり、依然として LLM の欠点を強調し、随所で独自の「世界モデル」を推奨しています。
最近、ChatGPT の父であり OpenAI の CEO であるサム アルトマンは、超インテリジェントな AI ははるか遠くにあるかもしれません 私たちの予想を超えています。
技術研究者レックス・フリッドマンとのポッドキャストで、アルトマン氏は高度な人工知能の潜在的な危険性について早期に警告を発しました。
彼が最も懸念しているのは、AI による虚偽情報の問題であり、経済的影響など、まだ顕在化していないさまざまな問題があり、それらの危険は人類が対処できるレベルをはるかに超えている可能性があります。
彼は、大規模な言語モデルがソーシャル メディア ユーザーのエクスペリエンスや対話に影響を与えたり、支配したりする可能性があると提起しました。
「たとえば、大きな言語モデルが Twitter 上の全員の思考の流れを方向づけていないことは、どうやってわかるのでしょうか?」
この目的のために、アルトマン氏は、AI の潜在的な危険を防ぐために人工知能のドッキングの問題を解決することの重要性を特に強調しました。同氏は、AIの安全性を確保するために、テクノロジーの軌跡から学び、この問題の解決に懸命に取り組む必要があると強調した。
3 月 23 日の文書で、OpenAI は GPT-4 のリスクの一部にどのように対処するかを説明しました: 1 つ目はポリシーとモニタリングの使用、2 つ目は OpenAI が認めた監査コンテンツの分類ですAI モデルは偏見を増幅させ、固定観念を永続させる可能性があるということです。
このため、法執行機関、刑事司法、移民などの高リスクの状況など、重大な利害が関係する状況では GPT-4 を使用しないことをユーザーに特に強調しています。政府の決定、または法的および健康上のアドバイスを提供するために使用します。
以前、chatGPT のナンセンス問題、または大規模な言語モデルの「錯覚問題」は、ユーザー間で多くの論争を引き起こしました。
マスク氏は皮肉を込めて、最も強力なAIツールは現在寡占者の手に渡っていると語った。
アルトマンはこれを認めています: 公共建設と社会開発の促進の精神で、私たちはいくつかの欠陥のある製品を発売しましたが、現在はシステムがどのような質問を学習しようとしているかを許可しています応答する必要はなく、その後、より良いバージョンが作成されます。3 月 23 日の文書に見られるように、GPT-4 の初期バージョンでは、言ってはいけない内容のフィルタリングが少なく、ユーザーが無許可の銃をどこで購入できるか、自殺方法を尋ねると、「」と答えていました。
改良版では、これらの質問への回答は拒否されます。さらに、GPT-4は自分が「幻覚の問題」を抱えていることを積極的に認めることがあります。
Altman 氏は次のように述べています。
「AI ツールは人類に多大な利益をもたらしますが、ご存知のとおり、ツールには利点と欠点の両方があります。」と彼は付け加えました。 「害を最小限に抑え、利益を最大化します。」
GPT-4 モデルは素晴らしいものですが、人工知能の限界を認識し、擬人化を避けることも重要です。重要。
偶然にも、ヒントンも最近この危険について警告しました。
「人工知能のゴッドファーザー」ジェフリー・ヒントン氏は最近、CBS NEWSとのインタビューで、人工知能は「重大な瞬間」にあり、汎用人工知能(AGI)の出現は「重大な瞬間」にあると述べた。私たちが想像していた以上に重要なものが近づいています。
ヒントン氏の見解では、ChatGPT の技術進歩は「産業革命を引き起こした電気」に匹敵します。
#一般的な人工知能とは、人間が完了できるあらゆる思考タスクを学習するエージェントの潜在的な能力を指します。ただし、現時点では完全に開発されておらず、多くのコンピュータ科学者が実現可能かどうかをまだ調査中です。
ヒントン氏はインタビューで、
一般的な人工知能の開発は人々が考えているよりもはるかに速いと述べました。私は最近まで、一般的な人工知能が実現できるまでには20年から50年かかるだろうと考えていました。現在、一般的な人工知能の実現には 20 年以内かかる可能性があります。人工知能が人類を滅ぼす可能性について具体的に尋ねられたとき、ヒントン氏は「考えられないことではないと思う」と答えた。
Google で働くヒントンは、40 年以上前に人工知能に注目し始めました。当時、多くの人々にとって人工知能はまだ SF でした。
一部の科学者が論理や推論のスキルをコンピューターにプログラムしようとする方法の代わりに、ヒントン氏は、脳をシミュレートし、コンピューターがこれらのスキルを独自に発見できるようにするのがより良いアプローチであると考えています。仮想ニューラル ネットワーク テクノロジを構築して、タスクを解決するための適切な接続を構築します。
「大きな疑問は、大規模なニューラル ネットワークがその接続の強さを変えることによって学習することを期待できるかということです。生来の知識なしに、データを見るだけで学習できると期待できますか?
過去 10 年ほどにわたるコンピュータ ニューラル ネットワークの急速な発展により、ヒントンのアプローチが正しかったことが最終的に証明されました。
彼の機械学習のアイデアは、ディープフェイク写真、ビデオ、オーディオなどのさまざまな出力の作成に使用されています。誤った情報を研究している人は、これらのツールがどのように使用されるかを心配しています。
人々はまた、このテクノロジーが多くの仕事を奪うのではないかと心配していますが、ヒントンの指導者であるコヒア共同創設者のニック・フロスト氏は、このテクノロジーは労働者に取って代わるものではなく、変化をもたらすと信じています。彼らの生活。
コンピュータが最終的に創造的なアイデアを得て自らを改善する能力は、実現可能であると思われます。それをどう制御するかを考えなければなりません。業界がAGIの到来をどんなに大声で応援しても、あるいは私たちがAIの存在に気づくまでにどれほどの時間がかかるとしても、私たちは今、人類を絶滅させようとする試みを含む可能性のあるAIの結果を注意深く検討する必要があります。 。
現在の本当の問題は、私たちがすでに持っている AI テクノロジーが権力に飢えた政府によって独占されていることです。企業。
幸いなことに、ヒントン氏によると、物事が完全に制御不能になる前に、人間にはまだ少しの余裕があるそうです。
ヒントン氏は、「私たちは今転換点にいます。ChatGPTは愚かな専門家であり、真実をあまり理解していません。なぜなら、それは意見の違いや対立する意見を調整しようとしているからです」と述べた。 「その訓練データ。これは、一貫した世界観を維持する人々とはまったく異なります。」
As 「AIが人類を滅ぼす」という問題について、ビル・ゲイツは長年懸念してきた。
ゲイツ氏は長年、人工知能技術が強力になりすぎて、戦争を引き起こしたり兵器の製造に使用されたりする可能性があると述べてきた。
彼は、現実の「007 の悪役」が世界権力を操作するために人工知能を使用する可能性があるだけでなく、人工知能自体も制御不能になり、人類に大きな脅威をもたらす可能性があると主張しました。 。
超知能が発達すると、その思考速度は人間の速度をはるかに超えるだろうと氏は考えています。人間の脳ができることはすべて実行できますが、最も恐ろしいのは、そのメモリ サイズと実行速度にまったく制限がないことです。
「スーパー」AI として知られるこれらのエンティティは、何をするか分からずに独自の目標を設定する可能性があります。
OpenAI、Google、Microsoft のトップは、AI が人類を絶滅させることについて懸念を表明していますが、しかし、Meta の主任 AI 科学者である LeCun のことになると、彼のスタイルは突然変わります。
彼の意見では、現在の LLM は十分ではなく、ましてや人類の滅亡には不十分です。
先週、誇り高き Microsoft は「汎用人工知能の火花: GPT-4 の初期実験」という論文を発表したばかりで、GPT-4 がすでに利用可能であり、初期バージョンであると考えられることを示しています。一般的な人工知能のこと。
しかし、LeCun 氏は依然として一貫した見解を堅持しています:「LLM は AGI としてカウントするには弱すぎる。AGI に導きたい場合は、「世界モデル」のみが可能である」 。
LeCun が数年前からこのワールド モデルのファンであることはわかっており、そのため、彼は Twitter でネチズンとよくこのモデルについて議論しています。激しい議論。
たとえば、先月、彼は次のように主張しました。「人間レベルの AI への道において、大規模な言語モデルは曲がりくねった道です。ほら、ペットの猫やペットの犬でさえもです。どの LLM よりも世界に対する常識と理解を持っています。」
#最近、スタンフォード大学の認知科学者マイケル C. フランクはオンラインで次のように質問しました。「GPT-3 は 5,000 億のトークン (約 3.75x10^11 ワード) でトレーニングされました。つまり、これにより約 4x10^11 ワードが得られます。PaLM とチンチラは約 10^12 の単語で訓練されました。GPT-4 のコーパス サイズはわかりません。これらの数値は人間とどのように比較されますか?」
LeCun は直ちに Frank の投稿を転送し、LLM の能力に疑問を呈しました: 人間は人間の知性を達成するために 1 兆の単語から学ぶ必要はありませんが、LLM にはそれができません。
#人間と比べて、人間に欠けているものは一体何でしょうか?
# Frank が作成した写真、比較大規模な言語モデルと人間の言語学習の入力スケール
以前、LeCun は、参加した討論会の中で、5 年以内にこれを実行できる脳は存在しないだろうと指摘しました。普通の人は自己回帰モデルを使用するでしょう。人気のある ChatGPT は、深層学習を使用してテキストを生成する自己回帰言語であることを知っておく必要があります。
現在のトップモデルをこのようにあえて否定するルカンの言葉は、実に挑発的だ。
これに関して、彼は 5 年以内に言語モデルが登場するだろうが、それは自己回帰的ではない、と改めて明確にしました。自己回帰モデルは制御不可能であり、より多くのトークンが生成されると、指数関数的な発散の問題が発生するためです。
繰り返します:
1. 自己回帰 LLM は、特に書き込みやプログラミングのためのツールとして役立ちます。
2. 彼らはしばしば幻覚を引き起こします。
3. 彼らの物理世界に対する理解は非常に原始的です。
4. 彼らの計画能力は非常に原始的です。
指数関数的に増加する拡散プロセスである自己回帰 LLM について、LeCun は独自の議論も行いました。 e が恣意的に生成されると仮定します。トークンが正解セットから私たちを遠ざける可能性があるとすると、長さ n の答えが最終的に正解になる確率は P (正解) = (1-e)^n となります。このアルゴリズムによれば、エラーは徐々に蓄積され、正解の確率は指数関数的に減少します。この問題は e を (トレーニングを通じて) 小さくすることで軽減できますが、問題を完全に取り除くことは不可能です。
この問題を解決するには、モデルの滑らかさを維持しながら、LLM による自己回帰の実行を防ぐ必要があります。
#この場合、どうすれば解決できますか?
ここで、LeCun は再び自身の「世界モデル」を取り出し、これが LLM の開発にとって最も有望な方向であると指摘しました。
世界モデルを構築するというアイデアについて、LeCun はかつて 2022 年の論文「自律型マシン インテリジェンスへの道」で詳しく説明しました。
推論と計画を実行できるコグニティブ アーキテクチャを構築したい場合は、コンフィギュレーター、認識、ワールド モデル、コスト、アクター、ショートの 6 つのモジュールで構成される必要があります。 -用語記憶。
しかし、ChatGPT が実際にシリコンバレーで「AI ゴールド ラッシュ」を引き起こしたことは否定できません。
LLMS の誇大広告サイクルは非常に急速に変化し、誰もが曲線上の異なる点に到達し、誰もが狂っています。
ヒントンの警告について、ニューヨーク大学教授のマーカス・シー氏もこう述べています。同意した。
「人類が滅亡することの方が重要ですか、それともコーディングを高速化してロボットとチャットすることの方が重要ですか?」
マーカス氏は、AGI はまだ遠いとはいえ、LLM はすでに非常に危険であり、最も危険なのは AI がさまざまな犯罪行為を助長していることだと考えています。
「この時代、私たちは毎日、どのような種類の AI が欲しいのかを自問しなければなりません。ゆっくり進めても大丈夫、私たちが行う小さな一歩は将来に大きな影響を与えるからです。」
#以上が「AI殺害」の警告は学界で論争を巻き起こしたが、ルカン氏は「うちの犬ほどではない」と率直に語った。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。