AI が制御不能になるリスクを理由に Meta で抗議活動の看板が掲げられ、オープンソース AI コミュニティが活況を呈していると LeCun 氏は語った

WBOY
リリース: 2023-10-10 21:05:03
転載
691 人が閲覧しました

AI の分野では、オープンソースとクローズドソースの選択について、長い間意見が分かれてきました。しかし、大規模モデルの時代には、オープンソースが強力な力として静かに台頭してきました。以前に Google からリークされた内部文書によると、コミュニティ全体が、Meta

を中心とした LLaMA などのオープンソース モデルを含む、OpenAI や Google の大規模モデルに類似したモデルを急速に構築しています。 Meta がオープンソースの世界の中核であることに疑いの余地はなく、最近リリースされた Llama 2 など、オープンソースの理念を推進するために継続的な努力を続けています。しかし、誰もが知っているように、大きな木には枯れた枝があるはずです。最近、Meta はオープンソースのせいでいくつかの問題を抱えています。

Meta のサンフランシスコ オフィスの外で、抗議者のグループが集まった看板を掲げ、AI モデルを公開するという抗議メタの戦略は、これらの公開されたモデルが潜在的に安全ではない技術の「不可逆的な拡散」を引き起こすと主張した。デモ参加者の中には、メタ社が発表した大型モデルを「大量破壊兵器」と例える人もいた。

これらの抗議活動参加者たちは自らを「懸念する市民」と呼び、ホリー・エルモアが指導者です。 LinkedIn によると、彼女は AI Pause 運動の独立した支持者です。

AI が制御不能になるリスクを理由に Meta で抗議活動の看板が掲げられ、オープンソース AI コミュニティが活況を呈していると LeCun 氏は語った

#書き直す必要があるのは次のとおりです: 画像ソース: MISHA GUREVICH

モデルが証明されている場合安全のため、彼女は、Google や OpenAI のように、ユーザーが API を介して大規模なモデルのみにアクセスできるようにするなど、API をオフにすることもできると述べました。対照的に、Meta の LLaMA シリーズのオープンソース モデルは、モデルの重みを提供しますこれにより、適切なハードウェアと専門知識を持つ人は誰でもモデルをコピーして自分で調整できるようになります。モデルの重みがリリースされると、出版社は AI の使用方法を制御できなくなります

ホリー エルモアにとって、モデルの重みを公開することは危険な戦略です。なぜなら誰でもモデルを変更できるからです。 、これらの変更は元に戻すことはできません。彼女は、「モデルが強力であればあるほど、この戦略はより危険である」と信じています。または、危険な応答や嫌悪感のある応答の出力を防ぐために特定のトレーニングに合格します。

モデルの重みを解放できれば、これらの「ガードレール」を飛び越えるようにモデルを再トレーニングするのが簡単になります。これにより、これらのオープン ソース モデルを悪用してフィッシング ソフトウェアを作成し、サイバー攻撃を実行することがより可能になります。

書き直す必要があるのは次のとおりです: 画像ソース: MISHA GUREVICH

問題の一部は「モデル リリースのセキュリティ対策が不十分」であるため、モデルのセキュリティを確保するためのより良い方法が必要であると考えているからです。

AI が制御不能になるリスクを理由に Meta で抗議活動の看板が掲げられ、オープンソース AI コミュニティが活況を呈していると LeCun 氏は語った

現時点では、メタはこれについてコメントしていません。しかし、Meta のチーフ AI サイエンティストである Yann LeCun 氏は、「オープンソース AI は非合法化されなければならない」という声明に反応したようで、パリのオープンソース AI スタートアップ コミュニティの繁栄を示しました。 ##AI 開発のオープンな戦略がテクノロジーへの信頼を確保する唯一の方法であると信じているホリー エルモアの意見に反対する人はたくさんいます。

一部のネチズンは、オープンソースには長所と短所があると述べ、オープンソースにより透明性が高まり、イノベーションが強化される可能性がありますが、コードなどによる悪用のリスクにも直面することになります。悪意のある俳優。

# 案の定、OpenAI はまたしても「オープンソースに戻すべきだ」と揶揄されました。 AI が制御不能になるリスクを理由に Meta で抗議活動の看板が掲げられ、オープンソース AI コミュニティが活況を呈していると LeCun 氏は語った

#オープンソースを心配している人はたくさんいます

MIT の人工知能セキュリティの博士研究員である Peter S. Park 氏は、オープンソースは先進的であると述べています。 AI は将来的に広くリリースされるでしょう AI モデルの悪用を防ぐことは基本的に不可能であるため、モデルは特別な問題を引き起こすでしょう

しかし、非営利人工知能である EleutherAI のエグゼクティブ ディレクター、ステラ ビダーマン氏は述べています。研究組織は、「これまでのところ、オープンソース モデルが特定の害を引き起こしているという証拠はほとんどありません。API の背後にモデルを配置するだけでセキュリティ問題が解決されるかどうかは不明です。」 AI が制御不能になるリスクを理由に Meta で抗議活動の看板が掲げられ、オープンソース AI コミュニティが活況を呈していると LeCun 氏は語った

Biderman 氏は、「LLM を構築するための基本要素は無料の研究論文で公開されており、世界中の誰もがその論文を読んで独自のモデルを開発できる」と考えています。

彼女はさらに、「企業にモデルの詳細を秘密にするよう奨励すると、特に独立した研究者にとって、この分野の研究の透明性、一般の意識、科学の発展に深刻な悪影響をもたらす可能性があります。」

誰もがオープンソースの影響について議論していますが、Meta の手法が本当に十分にオープンであるかどうか、またオープンソースを活用できるかどうかはまだ不明です。

オープンソース イニシアチブ (OSI) のエグゼクティブ ディレクターであるステファノ マフリ氏は、「オープンソース AI の概念は適切に定義されていません。組織によって、この用語が異なるものを指すために使用されています」と述べています。

マフリ氏は、オープンソース ソフトウェアの場合、重要な問題はソース コードが公開されているかどうかであると指摘しました。目的を問わず複製すること。ただし、AI モデルを再現するには、トレーニング データ、データの収集方法、トレーニング ソフトウェア、モデルの重み、推論コードなどの共有が必要になる場合があります。その中で最も重要なことは、トレーニング データにはプライバシーと著作権の問題が含まれる可能性があるということです。

OSI は昨年から「オープンソース AI」の正確な定義を与えることに取り組んできました。おそらくそうなる可能性が非常に高いです。今後数週間以内に初期のドラフトがリリースされる予定です。しかし、何があっても、AI の開発にはオープンソースが不可欠であると彼は信じています。 「AI がオープンソースでなければ、信頼でき、責任ある AI を実現することはできません」と彼は言いました。

今後もオープンソースとクローズドソースの違いは続くでしょうが、オープンソースは止められません。


以上がAI が制御不能になるリスクを理由に Meta で抗議活動の看板が掲げられ、オープンソース AI コミュニティが活況を呈していると LeCun 氏は語ったの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!