LeCun氏とNg Enda氏を含む370人以上が共同書簡に署名した。「AIの厳格な管理は危険であり、公開性が解毒剤である」。

WBOY
リリース: 2023-11-03 14:49:04
転載
1284 人が閲覧しました

ここ数日、AI をどのように監督するかについての議論がますます白熱しており、大手の意見は大きく異なります。

たとえば、チューリング賞を受賞した 3 人の巨人、ジェフリー・ヒントン、ヨシュア・ベンジオ、ヤン・ルカンの中には 2 つの意見があります。ヒントン氏とベンジオ氏はチームで、AIの監視強化を強く求めており、さもなければ「AIが人類を滅ぼす」という危険につながりかねない。ルカン氏は彼らの意見に同意しておらず、AIに対する強力な規制は必然的に巨大企業の独占につながり、その結果、少数の企業だけがAIの研究開発を管理することになると考えている。

自分の考えを表現するために、多くの人が連名書簡に署名して自分の意見を伝えます。ここ数日を例に挙げると、ベンジオ氏やヒントン氏らは「In 」という連名書簡を発行しました。急速な発展の時代における人工知能のリスクの管理」では、研究者に対し、AI システムを開発する前に緊急のガバナンス措置を講じるよう求めています。

「人工知能の安全性とオープン性に関する共同声明」と題した最近の公開書簡は、ソーシャルメディアで大騒ぎを引き起こしました

LeCun氏とNg Enda氏を含む370人以上が共同書簡に署名した。「AIの厳格な管理は危険であり、公開性が解毒剤である」。

## 公開書簡を表示するには、次のリンクをクリックしてください: https://open.mozilla.org/letter/

現時点では、3 つの巨人の 1 つである LeCunスタンフォード大学コンピューターサイエンス学部のアンドリュー・ン教授を含む370人以上が公開書簡に署名した。リストはまだ更新中です。

LeCun 氏は、「オープン性、透明性、広範なアクセスにより、ソフトウェア プラットフォームはより安全で信頼できるものになります。私はまた、オープンな人工知能プラットフォームである Mozilla Foundation からの公開書簡にも署名しました。システムが理由を提供します。」

LeCun氏とNg Enda氏を含む370人以上が共同書簡に署名した。「AIの厳格な管理は危険であり、公開性が解毒剤である」。


公開書簡の内容は次のとおりです:

#私たちは人工知能のガバナンスにおいて重大な瞬間にいます。 AI システムの現在および将来の害を軽減するには、オープン性、透明性、幅広いアクセスを受け入れる必要があります。これは世界的な優先事項である必要があります

実際、公開されているモデルにはリスクと脆弱性があり、AI モデルは悪意のある攻撃者によって悪用されたり、十分な設備が整っていない開発者によって展開されたりする可能性があります。しかし、私たちはあらゆる種類の独自のテクノロジーでこのようなことを何度も目にしています。一般のアクセスと監視の増加により、テクノロジーはより危険になるのではなく、より安全になります。基盤となる AI モデルを厳格に独自に制御することが、大規模な危害から私たちを守る唯一の方法であるという考えは、良く言えば単純で、悪く言えば危険です。

さらに、人類の発展の歴史は、間違った規制をすぐに採用すると、競争やイノベーションを損なう権力の集中につながる可能性があることを教えています。オープン モデルは、公開討論に情報を提供し、戦略開発を改善できます。私たちの目標が安全性、セキュリティ、説明責任である場合、公開性と透明性はその目標を達成するための重要な要素です。

私たちは、人工知能時代における「オープン性」の意味についてのダイナミックな議論の真っ最中です。この重要な議論の速度を緩めるべきではありません。むしろ、物事をスピードアップし、AI の安全性競争においてオープン性を活用するための新しい方法を試し、学び、開発することを奨励する必要があります。

私たちは、オープンソースとオープン性を促進するアプローチを確立する必要があります。これらの方法は、次の基盤として機能します。

個別の調査、コラボレーション、知識の共有を通じて、人工知能機能のリスクと危険性の理解を加速できます

2. 規制当局による大規模 AI システム監視ツールの導入を支援することで、国民の監視と説明責任を強化します。

新規プレイヤーの参入障壁を下げることは、責任ある人工知能の開発に注力する上で重要な側面です

この公開書簡の署名者として、私たちは科学者、政策立案者、エンジニア、活動家、起業家、教育者、ジャーナリストなど、あらゆる職業の多様な人々から構成されています。私たちは、オープンソース AI をどのように管理しリリースすべきかについて、さまざまな視点を表明しています。しかし、私たちは 1 つの点で強く同意します。それは、人工知能の時代において、私たちの安全を確保するには、オープンで責任ある透明性のあるアプローチをとることが重要であるということです。

人工知能の安全性の分野において、オープン性 問題の悪化ではなく、問題の解決策

署名者: 書き直す必要があります

  • Arthur Mensch、フランスのスタートアップ MistralAI 共同創設者兼 CEO
  • Andrew Ng、DeepLearning.AI 創設者、Landing AI Offer 創設者兼 CEO、スタンフォード大学コンピューター サイエンス教授
  • Yann Lecun、チューリング賞受賞者、メタ主任 AI 科学者
  • Julien Chaumond、Hugging Face CTO
  • Brian Behlendorf、Apache 創設メンバー、OpenSSF CTO
  • Eric Von Hippel、アメリカの経済学者、MIT スローン経営大学院教授
  • ……

現在、この公開書簡はわずか数日で発酵を続け、波紋を呼んでいます。外国の AI コミュニティでは大きな注目と議論があり、誰もがリストの更新に引き続き注目することができます。

この共同書簡の見解に同意する場合は、ご自身の署名を提出することもできます。

AI の強力な監視が善よりも害をもたらすのか、それとも善が害を上回るのかを答えるには時間がかかります。

以上がLeCun氏とNg Enda氏を含む370人以上が共同書簡に署名した。「AIの厳格な管理は危険であり、公開性が解毒剤である」。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート