AIリスクの問題に関しては、各界のお偉いさんたちも異なる意見を持っています。誰かが率先してAI研究機関に研究の即時中止を求める共同書簡に署名し、深層学習の3大巨頭、ジェフリー・ヒントン氏、ヨシュア・ベンジオ氏らは全員この見解を支持している。
つい最近、ベンジオ氏とヒントン氏らは共同書簡「急速な発展時代における人工知能のリスク管理」を発表し、AIシステムを開発する前に緊急の措置を講じるよう研究者に呼びかけました。ガバナンス対策は安全性と倫理的慣行に焦点を当てており、AI によってもたらされるリスクを管理するための措置を講じるよう政府に求めています。
この記事では、AI の悪用を防ぐための国家機関の関与など、いくつかの緊急のガバナンス対策について言及しています。効果的な規制を実現するには、政府が AI の開発を包括的に理解する必要があります。規制当局は、モデルの登録、内部告発者の効果的な保護、モデル開発やスーパーコンピューターの使用状況の監視など、一連の措置を講じるべきである。規制当局は、その危険な機能を評価するために、導入前に高度な AI システムにアクセスする必要もあります。
今年 5 月、米国に本拠を置く非営利団体である人工知能安全センターは、人工知能は絶滅のリスクと見なされるべきであると警告する声明を発表しました。人類にとって、疫病のように。この声明は、ヒントン氏やベンジオ氏を含む一部の人々によって支持された。それだけではなく、もう少し遡ると今年5月、米国の非営利団体である人工知能セキュリティセンターは、人工知能は人類を滅ぼすのと同じリスクがあると見なすべきであると警告する声明を発表した。この声明を支持したのは、ヒントン、ベンジオらを含む同じ人々です
今年 5 月、ヒントンは、疫病によってもたらされるリスクについて自由に議論できるようにするために Google を辞任しました。人工知能。ニューヨーク・タイムズ紙とのインタビューで同氏は、「ほとんどの人は、人工知能の害はまだ遠いところにあると考えている。私も以前はそう思っていたが、それは30年から50年、あるいはそれ以上かかるかもしれない。しかし今では、私の考えは、思考が変わりました。」
ヒントンのような AI の大物たちの目には、人工知能によってもたらされるリスクを管理することが緊急の課題です
それにもかかわらず、ヤン・ルカン氏はディープラーニング分野の重要人物の一人として、人工知能の発展について楽観的である。彼は人工知能のリスクに関する共同書簡に署名することに反対しており、人工知能の発展は人類に脅威をもたらすものではないと信じています
今、X とのやりとりの中でLeCun 氏は次のように述べています。AI のリスクに関するネチズンからのいくつかの質問に答えました。
ネチズンは記事「『これが彼の気候変動だ』:リシ・スナックが彼の遺産を封印するのを支援する専門家たち」に関するルカンの見解について尋ねていた。この記事では、ヒントン氏やベンジオ氏らによって発行された共同書簡によって、人々のAIに対する見方が、当初はAIを補助的な補助者として見ていたものから、潜在的な脅威として見なすようになったと考えられている。記事は続けて、ここ数カ月間、イギリス国内でAIが世界の終焉を引き起こすのではないかという感情が高まっていることを観察者らが察知したと述べている。今年3月、英国政府はAI分野のイノベーションを抑制しないと約束する白書を発表した。しかし、わずか 2 か月後、英国は AI にガードレールを設置し、米国に対して世界的な AI ルールの計画を受け入れるよう促していると話しています。
記事リンク: https://www.telegraph.co.uk/business/2023/09/23/Helios 人工知能セキュリティ サミット :スナク氏とAI専門家/ (注: 提供されているコンテンツはすでに中国語です。したがって、書き直す必要はありません。)
この記事に対する LeCun の反応は、英国が運命論的になることを望んでいないというものです。 AI について リスク懸念は他国にも波及
#その後、前述した LeCun と X ユーザーの間のやり取りが行われました。は LeCun のすべてです 答え:
「アルトマン、ハサビス、アモデイは大規模な企業ロビー活動に従事しています。彼らは AI 業界を規制しようとしています。そしてあなた、ジェフ、
もしあなたの恐怖キャンペーンが成功すれば、それは必然的にあなたと私が信じている破滅的な事態につながるでしょう。結果: 少数の企業が AI を制御することになる # 学術関係者の大多数は、オープン AI の研究開発に対して非常に協力的な態度をとっています。あなたが宣伝する終末のシナリオを信じる人はほとんどいません。あなた、ヨシュア、ジェフ、スチュアートが唯一の例外です 多くの人と同様に、私はオープン AI プラットフォームの大支持者です。なぜなら、人々の創造性、民主主義など、さまざまな力を統合することの重要性を信じているからです。 、市場の力、製品規制。また、私たちには安全で制御可能な AI システムを作成する能力があることも学びました。人々が正しい決断を下すよう後押ししてくれることを願って、私は具体的な提案をしました あなたの文章は、AI が自然現象であり、私たちがその開発を制御することはできないという印象を与えます。しかし実際にはそうではありません。 AIが進歩できるのは人間社会の皆さんのおかげです。私たち一人ひとりには、正しいものを生み出す力があります。研究開発の規制を求めることは、これらの人々と彼らが働く組織が無能、無謀、自己破壊的、または邪悪であると事実上想定していることになります。しかし、そうではありません。 #私は、あなたが恐れている終末のシナリオがばかばかしいものであることを証明するために、多くの議論を考え出しました。ここでは詳細には触れません。しかし、重要な点は、強力な AI システムがガードレールを含む目標によって駆動される場合、それらのガードレールと目標が設定されているため、システムは安全で制御可能であるということです。 (現在の自己回帰 LLM は目標主導型ではないため、自己回帰 LLM の弱点から推測すべきではありません) オープンソースに関しては、あなたの活動の効果は、これまでとは正反対になります。あなたは後です。将来、AI システムは人類のあらゆる知識と文化の宝庫となり、誰もがそれに貢献できるオープンソースかつ無料のプラットフォームが必要です。オープン性は、AI プラットフォームに人間のあらゆる知識と文化を反映させる唯一の方法です。これには、Wikipedia と同様に、これらのプラットフォームへの寄稿をクラウドソーシングする必要があります。プラットフォームがオープンでない限り、これは機能しません。 オープンソースの人工知能プラットフォームが規制されると、数社が人工知能プラットフォームを制御し、ひいてはすべての人々のデジタル依存関係を制御するという別の状況が生じるでしょう。これは民主主義にとって何を意味するのでしょうか?文化的多様性にとってそれは何を意味しますか?これが私を一晩中眠れない原因です ルカン氏のツイートの下で、多くの人が彼の意見への支持を表明しました イリーナ・リッシュ教授、モントリオール大学のコンピューター サイエンスおよびオペレーション リサーチ部門は、ミラ ケベック AI Institute の中心メンバーでもあります。彼女は、おそらくオープンソース AI を支持する研究者はもはや沈黙するべきではなく、新たな AI の開発を主導すべきであると述べました。 e/acc 創設者 Beff Jezos 氏もコメント欄で、そのようなコメントは重要であり、人々が必要としているものであると述べました。 ネチズンは当初、セキュリティ問題について議論することで将来のテクノロジーに対するみんなの想像力を豊かにすることができるが、センセーショナルなSF小説が独占政策につながるべきではないと述べた。 。 ポッドキャストの司会者レックス・フリッドマンは、この討論会からさらに楽しみにしていることがあります。 AI リスクに関する議論は、今後の AI の発展にも影響を及ぼします。あるアイデアが注目を集めると、人々は盲目的にそれに従います。双方が合理的な議論を続けてこそ、AIの「本当の姿」が見えてくるのです。
以上がチューリング賞受賞者らが主張、ルカン氏:ベンジオやヒントンらのAI絶滅説は荒唐無稽の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。