3月31日のニュースによると、テスラのCEOイーロン・マスク氏とアップルの共同創設者スティーブ・ウォー氏、スティーブ・ウォズニアック氏、その他数千人のAI研究者が最近、公開書簡に署名した。より高度な AI テクノロジーの研究を一時停止します。しかし、この書簡は多くの専門家や署名者からも疑問視され、AIの誇大広告を悪化させ、署名を偽造し、書類を歪曲したとして非難された。
この公開書簡は、「強力なテクノロジーによってもたらされる地球規模の壊滅的かつ存続に関わるリスクを軽減する」ことを使命とする非営利団体、Future of Life Instituteによって書かれました。具体的には、同研究所は超知能AIなど、人類に対する長期的な「実存的」リスクを軽減することに重点を置いている。マスク氏は同団体の支持者で、2015年には同団体に1000万ドルを寄付した。
この書簡には次のように書かれています。「より強力な AI システムは、AI の影響がプラスであり、リスクが制御可能であると確信できる場合にのみ開発されるべきです。したがって、私たちはすべての AI 研究室に対し、少なくとも 6 つのシステムを直ちに停止するよう求めます」 「GPT-4 よりも強力な AI システムのトレーニングには数か月かかります。AI ラボと独立した専門家は、この時間を利用して、独立した外部の専門家による高度な AI 設計および開発のための一連の共有セキュリティ プロトコルを共同で開発および実装する必要があります。厳格な監査と監督。」
この書簡はまた、「これはAI開発が全体的に保留されていることを意味するのではなく、危険な競争から、新たな機能を備えたより大規模で予測不可能な競争への撤退を意味するだけです。ブラックボックスモデルです。」と明らかにしました。過去 1 年間に多くの新しい AI 製品をリリースした Microsoft や Google などの大手テクノロジー企業間の競争。
その他の著名な署名者には、画像生成スタートアップ Stability AI の CEO、エマド・モスタク氏、作家で歴史家のユヴァル・ノア・ハラリ氏、ピンタレストの共同創設者エヴァン・シャープ氏などが含まれます。 Googleの姉妹会社DeepMindやMicrosoftなど、AI競争に関与する企業の従業員からの署名もあった。 OpenAI は AI モデルの GPT シリーズを開発して商品化しましたが、誰もこの書簡に署名しませんでした。
検証プロセスを経たにもかかわらず、この書簡には当初、OpenAI CEOのサム・アルトマン氏やメタのチーフAIサイエンティスト、ヤン・ル・ヤン・ルクン氏になりすました者など、多くの偽署名者が含まれていた。その後、フューチャー・オブ・ライフ研究所はリストを整理し、各署名を検証する間、手紙への追加の署名の表示を停止した。
しかし、公開書簡の公開は大騒ぎを引き起こし、署名者の多くを含む多くの AI 研究者によって精査されています。一部の署名者は自らの立場を撤回し、一部の著名な署名は偽物であることが判明し、さらに多くのAI研究者や専門家が書簡の説明と提案されたアプローチに対して公に反対を表明している。
ニューヨーク大学の心理学と神経科学のゲイリー・マーカス教授は、「この手紙は完璧ではないが、精神は正しい」と述べ、一方、Stability AI CEOのMu Si Tucker氏は、OpenAIは真に「オープンな」AI 企業、「したがって、6 か月間トレーニングを停止することが最善の考えとは思えません。また、この書簡の多くの点には同意できませんが、書簡には次のような部分があります」
AI 専門家らは、この書簡が「AI の誇大広告」を助長しているものの、今日存在する AI の危険性について列挙したり具体的な行動を求めたりしていないと批判した。これは、超富裕層に有利であり、特定の理由で道徳的に疑わしい行動を取ることを彼らに許可するため、有害で反民主的であると批判されてきた長年の、しかしやや非現実的な考え方を促進すると考える人もいます。
ワシントン大学言語学部の教授であり、公開書簡の冒頭で引用した論文の共著者であるエミリー・M・ベンダーは、その書簡は「AIだらけだった」とツイッターに書いた。誇大広告」と彼女の研究結果を悪用した。書簡には「広範な研究により、人間のような知能を持つAIシステムが社会と人類に重大な脅威をもたらす可能性があることが示されている。」と述べられていたが、ベンダー氏は研究の中でこの脅威が現在の大規模な言語モデルを指していると特に指摘したと反論した。これは、公開書簡で提起されている将来の AI の脅威よりもはるかに具体的かつ緊急です。
ベンダー氏は続けて「我々は2020年末に完全な論文を発表し、リスクを考慮せずに大規模な言語モデルの構築を急ぐことには問題があると指摘した。しかし、AIにとってリスクと害が大きすぎることは決してない。強力だ」むしろ、それらは人々の手に権力が集中すること、抑圧システムの再生産、情報生態系の破壊、自然生態系の破壊などについてのものである。」
AI スタートアップ Hugging Face の研究科学者である Sasha Luccioni 氏はインタビューで次のように述べています。「公開書簡は本質的に誤解を招くものです。大規模な言語モデルが仮説に基づいているという事実に全員の注意を引き付けています。力と害、そして非常に曖昧な提案をしています」 「これらの害に焦点を当てて今ここで対処するのではなく、ほとんど効果のない解決策です。たとえば、LLM のトレーニング データと機能に関してさらなる透明性を要求したり、いつどこで使用できるかを規定する法律を要求したりします。」プリンストン大学のコンピューターサイエンス准教授、アルビンド・ナラヤナン氏は、公開書簡はAIの誇大宣伝に満ちており、「解決策が現実のものとなり、実現している。AIによる被害はより困難になる」と述べた。
公開書簡では、いくつかの疑問が提起されています:「やりがいのある仕事も含め、すべての仕事を自動化すべきでしょうか?最終的には人間の知性を超え、それに取って代わるかもしれない非人間的な精神を育成すべきでしょうか?」AIの開発を続けるべきでしょうか?
これに関して、ナラヤナン氏は、これらの質問は「ナンセンス」であり「まったくばかげている」と述べた。コンピュータが人間に取って代わり、人類の文明を引き継ぐかどうかは非常に遠い問題であり、現在の問題から私たちの目をそらす長期的な考え方の一部です。結局のところ、AI は私たちを「時代遅れ」にする「非人間的思考」の一種ではなく、すでに人々の仕事に組み込まれており、特定の職業の必要性を減らしています。
Narayanan 氏はまた、次のようにも述べています。「これらは正当な長期的な懸念と見なすことができると思いますが、これらは何度も言及され、非常に現実的な情報セキュリティとセキュリティ リスクを含む現在の害から注意をそらされています。そして、これらのセキュリティ リスクに対処するには、私たちの協力が必要です。残念ながら、AI の機能や人類の生存に対するリスクの誇張など、この書簡の誇大宣伝は、AI モデルに対するさらなる制約につながる可能性があり、リスクへの対処がより困難になる可能性があります。」
#しかし、公開書簡の署名者の多くも自らを擁護した。研究組織ミラの創設者で科学ディレクターのヨシュア・ベンジオ氏は、政府を含む統治機関がAIシステムを理解し、監査し、効果的であることを確認するために6カ月の一時停止期間が必要だと述べた。同氏は、危険な権力集中が存在し、AIツールは民主主義を不安定にする可能性があり、「民主主義の価値観とこれらのツールの開発方法の間には矛盾がある」と付け加えた。 マサチューセッツ工科大学 NSF AI および基本相互作用研究所 (IAIFI) の物理学教授であり、フューチャー オブ ライフ研究所所長のマックス テグマーク氏は、最悪のシナリオは、人類が徐々に文明の制御を失うことであると述べました。同氏は、現在のリスクは「影響力が大きすぎるテクノロジー企業の選挙で選ばれなかった権力者の集団に支配されてしまうことだ」と述べ、礼儀正しさを失う恐れはほのめかされたが、電話をかける以外に具体的な対策については何も話されなかった。 6ヶ月間の一時停止期間。 コンピュータ科学者で分散 AI Institute の創設者である Timnit Gebru 氏は、GPT-4 を超えるトレーニングの一時停止を求めているのは皮肉なことだと Twitter に投稿しました。強力な AI モデルですが、失敗していますGPT-4 自体を取り巻く多くの懸念に対処するためです。以上がAI研究の中止を求めるマスク氏らの公開書簡は疑問視され、誇大広告を悪化させ論文を歪曲したとして非難されたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。