テクノロジー巨人の数百億ドル規模のAI研究開発は疑問視され、自慢された:一度人間に勝ったAIは売り飛ばされる

王林
リリース: 2023-05-13 12:58:06
転載
1206 人が閲覧しました

Google や Facebook などのテクノロジー大手は、長年にわたって人工知能 (AI) の研究開発に数十億ドルを投資し、その可能性を誇大宣伝してきました。しかし今、研究者らはAIに対する期待をリセットする時期が来たと述べている。

最近 AI テクノロジーの開発が一定の飛躍を遂げたのは事実です。企業は、人間のように見える会話、詩、画像を生成できる AI システムをさらに開発してきました。しかし、AIの倫理学者や研究者らは、一部の企業がAIの能力を誇張しており、この誇大宣伝が広範な誤解を生み、AIの力と信頼性の低さについての政策立案者の見方を歪めていると警告している。

「私たちはバランスを失った。」とシアトルの非営利研究組織であるアレン人工知能研究所の CEO、オーレン・エツィオーニ氏は語った。エツィオーニら研究者らは、この不均衡こそが、AIには知覚があるというGoogleエンジニアの主張に多くの人が振り回される理由を説明するのに役立つと述べている。

Google エンジニアのブレイク・ルモイン氏は、自身の宗教的信念に基づいて、同社の AI システムの 1 つは知覚力を持つものとみなされるべきだと主張しました。同氏は、AIチャットボットは事実上人間となり、実験を許可するかどうかを決定する権利を持っていると主張した。その後、Googleは同氏を停職処分にし、彼の主張を却下した。グーグルは、企業倫理学者と技術専門家がその可能性を研究し、同氏の主張を却下したと述べた。

テクノロジー巨人の数百億ドル規模のAI研究開発は疑問視され、自慢された:一度人間に勝ったAIは売り飛ばされる

ルモイン氏は、AI には知覚力があると主張

研究者らは、AI が意識を持ち始めている、あるいは意識を持ち得る可能性があるという広範な科学界の認識はまだ限界にあると述べています。

実用的な観点から見ると、AI がカバーする一連のテクノロジーは、ユーザーからのデータをより適切に配送するための処理など、一連の日常的なバックエンドの物流タスクに依然として大いに役立ちます。広告、コンテンツ、製品の推奨。過去 10 年にわたり、Google、Facebook の親会社である Meta、Amazon などの企業は、成長と利益の原動力を高めるために、こうした機能の向上に多額の投資を行ってきました。たとえば、Google は AI を使用して複雑な検索プロンプトをより適切に解析し、関連性の高い広告や Web 結果の提供を支援しています。

一部のスタートアップはさらに大きな野心を抱いています。そのうちの1社であるOpenAIは、テスラCEOのイーロン・マスク氏やマイクロソフト社を含む寄付者や投資家から数十億ドルを調達しており、いわゆる汎用AIの実現を目指している。これは、人間のあらゆる側面に匹敵する、あるいはそれを超えるシステム能力である。知能。研究者の中には、不可能ではないにしても、それは数十年先のことだと考えている人もいます。

これらの企業が互いに優位に立つための競争が AI の急速な発展を促進し、注目を集めるデモンストレーションの数が増加しています。これらのデモンストレーションは人々の想像力をかき立て、テクノロジーへの注目を集めました。

OpenAI の DALL-E システムは、「土星の軌道上のマクドナルド」や「トライアスロンに参加するスポーツ用品を着たクマ」などのユーザーのプロンプトに基づいてアートワークを生成するもので、ここ数週間でソーシャル メディアで怒りを引き起こしました。ミームがたくさん。その後、Google は DALL-E システムの例に従い、独自のテキストベースのアートワーク生成システムを立ち上げました。

これらの結果は印象的ですが、企業が広報を適切に管理していないと警告する専門家が増えています。

Googleの倫理AIチームの共同リーダーだったマーガレット・ミッチェル氏は、Googleのシステムについて批判的な論文を書いた後に解雇された。同氏は、株主に対するGoogleのセールスポイントの1つは、AIにおいて世界最高であることだと述べた。

AI の限界

ミッチェルは現在、Hugging Face という AI スタートアップで働いています。そこで彼女と Google の AI 倫理担当共同責任者のティムニット ゲブ氏は、最初の 1 人でした。 AIの危険性を警告する。 Gebru氏もGoogleから解雇された。

彼らが Google で働いていたときに書いた最後の論文によると、これらのテクノロジーは人間に似た能力を持っているため、人間と同じように失敗する可能性が高く、時には害を及ぼす可能性があると主張しています。例えば、フェイスブックのAIシステムは、アラビア語の「おはよう」を英語に翻訳すると「彼らを傷つける」、ヘブライ語に翻訳すると「攻撃する」と誤訳し、イスラエル警察による逮捕につながった。この挨拶を投稿したパレスチナ人男性は後に気づいた。間違い。

昨年公開された Facebook の内部文書では、Facebook の AI システムが一人称視点の撮影動画や人種差別的発言を一貫して識別できず、社内規定に違反するコンテンツのごく一部しか削除されなかったことも明らかになりました。 Facebookは、AI技術の向上によりヘイトスピーチやルールに違反するその他のコンテンツが大幅に減少したと述べた。

理想と現実のギャップ

理想はとてもふっくらしているのに、現実はとてもガリガリです。エツィオーニらはワトソンを中心としたIBMのマーケティングを指摘した。 WatsonはIBMが開発したAIシステムで、クイズ番組「ジェパディ!」で人間を殴ったことで有名になった。しかし、IBMは10年間と数十億ドルの投資を経て、医師のがんの診断と治療を支援する主力製品であるワトソン・ヘルス部門を売却する可能性を検討していると昨年発表した。

AI は現在どこにでも普及しており、より多くの企業が関与しているため、AI が開発するソフトウェアには電子メール、検索エンジン、ニュース フィード、音声アシスタントが含まれており、私たちのデジタル ライフに浸透しているため、そのリスクはさらに大きくなっています。

Googleの広報担当ブライアン・ガブリエル氏は、AIには知覚力があるという主張を否定し、同社のチャットボットやその他の会話ツールは「どんな非現実的な話題でも即興で話すことができる」と述べた。 「アイスクリーム恐竜にどんな姿だったか尋ねると、溶けたり咆哮したりすることについてのテキストを生成できますが、これは知覚とは異なります」と彼は言います。

AI の認知ギャップが政府の政策に浸透

ブラウン大学で AI 政策を研究しているコンピューター サイエンスの博士課程の学生、エリザベス クマール氏は、ファイルの中で、この認知ギャップは静かに政策に浸透していると述べています。

最近、地域、連邦、国際的な規制や規制提案は、AI システムが高度な能力を備えているという前提に基づいて、AI システムが差別、操作、またはその他の手段を通じて危害を引き起こす可能性に対処しようとしています。 。クマール氏は、AIシステムが「単に機能しなかっただけ」で危害を及ぼした可能性はほとんど無視しており、その可能性の方が高いと述べた。

エツィオーニ氏は、バイデン政権の国家人工知能研究リソースタスクフォースのメンバーでもあります。同氏は、政策立案者はこうした問題を把握するのに苦労することが多いと指摘した。 「彼らの何人かとの会話から言えるのは、彼らは善意を持っており、良い質問をするが、すべてを知っているわけではない」と彼は言う。

以上がテクノロジー巨人の数百億ドル規模のAI研究開発は疑問視され、自慢された:一度人間に勝ったAIは売り飛ばされるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!