Canva Drawable からの画像
2023 年の初め、ChatGPT の人気により、生成 AI アプリケーションに対する業界の注目が急速に高まり、大規模な AI モデルの競争が激化しました。
重要な関係者として、Alibaba Cloud は 4 月 11 日に開催された Alibaba Cloud Summit で Tongyi Qianwen 大型モデルを初めて発表しました。 6月1日直後、アリババクラウドは同義大規模モデルの進捗を発表し、音声とビデオコンテンツに焦点を当てた新AI製品「同義リスニング」が正式に発売され、中国で公開された初の大規模モデル応用製品となった。これは、Alibaba Cloud の大規模モデル言語モデルがフロントエンド アプリケーションに向けてさらに大きな一歩を踏み出したことを意味します。同時に、同社の AI ベースの大型モデル アプリケーションのリリースは、現在議論されている「大型モデルの乱戦」に大ヒット作を投下することに等しい。
千モデル戦争が勃発しようとしています
ここ数カ月、マイクロソフト、グーグル、アマゾンなどのシリコンバレーの大手企業が大型モデルやAIGCの進歩を発表し、AI検索エンジンやAIオフィスソフトウェアなどの一連のアプリケーションを通じてAI競争を開始しており、国内のインターネットクラウド企業も全軍を次々と攻撃した。大手メーカーだけでなく、多くの新興企業、VC/PE機関、さまざまな業界の大手企業がAI大型モデルトラックに流入し、パイの一部を獲得しようとしている。不完全な統計によると、現在、大規模な AI モデルを立ち上げる計画を発表している大企業は 50 社以上あり、他にも無数の参加者がいます。
構造的な観点から見てみると、「BATH」などに代表されるインターネットテクノロジー企業は、シナリオ、コンピューティング能力、総合力などの総合力により、業界の第一線に確固たる地位を築いています。 SenseTime、China Telecom、JD.com、360 などの重要な業界企業は、関連分野での影響力に依存して業界の第 2 階層にランクされています。 Meituan の共同創設者である Wang Huiwen 氏や Sogou の元 CEO、Wang Xiaochuan 氏などの著名な起業家は、知識、制度的サポート、関連する経歴を持っていますが、まだ初期段階にあるため、大型 AI モデルの混戦では一時的に第 3 階層にランクされました。
分類の観点から見ると、一般的な大型モデルと特殊な大型モデルについては、各企業が独自の位置付けと分業を行っています。業界関係者によると、現在の国内大型モデルは主に2つのカテゴリに分けられ、1つはアリババ、バイドゥなどの基本レベルの企業に焦点を当てたGPTをベンチマークする一般的な大型モデル、もう1つはオープンベースのモデルである。金融、医療、運輸などの分野で使用される大型垂直モデルなど、垂直産業の企業を中心に、プラットフォーム上で大型垂直モデルをトレーニングします。前者は高度な技術要件とコストがかかるため、多くの業界が一般の大型モデル会社と協力して、独自の条件に基づいて自社の業界に適した垂直型大型モデルをトレーニングし始めています。
業界チェーンの観点から見ると、コンピューティングパワーのメーカー、クラウドサービスのメーカー、フロントエンドアプリケーションのメーカーがすべて関与しており、システムは完全で、緊密に接続されており、範囲が広いです。現在、コンピューティングパワーメーカーのNVIDIA、クラウドサービスプロバイダーのAlibaba Cloud、Kingsoft Office、UFIDA、Yuncong Technologyなどのフロントエンドアプリケーションメーカーが、テクノロジーの研究開発とAIラージモデルのシナリオ実装に積極的に参加しています。つまり、現在の大型AIモデルをめぐる乱戦は、にわかに激化しているのだ。
Tongyi Tingwu が大規模モデル アプリケーションの最初のショットを開始
AI ラージモデルに関わるレベルの観点から見ると、主にアプリケーション層、モデル層、フレームワーク層、チップ層の 4 つのレベルに分類できます。現在、市場に出ているほとんどの企業はまだモデル層にいます。これにはフレームワーク層とチップ層の研究が含まれており、フロントエンド アプリケーションは現在業界で利用できません。業界初のパブリックベータ版の大規模モデルアプリケーション製品として、Tongyi Tingwu のデモンストレーション効果は極めて明白です。
一方で、基盤となるテクノロジーと比較して、アプリケーション フロントエンドに近いテクノロジーの価値はより想像力豊かになります。 あらゆるテクノロジーの進化の歴史を見ると、テクノロジーの中核的価値がそのアプリケーションの人気と、ユーザーの問題をどの程度解決するかにあることを見つけるのは難しくありません。このため、この責任と使命を担うフロントエンド アプリケーションには、多くの場合、想像力の余地が大きくあります。
Alibaba Cloud が 6 月 1 日にローンチした Tongyi Listening を例に挙げると、Alibaba の Tongyi 大型モデルと接続することで、その役割は単なる音声とビデオの書き起こしツールではなく、効率的なものになりました。オーディオとビデオのシナリオで人々を支援する AI アシスタント。自動的にメモを取る、インタビューを整理する、PPTを抽出するなどのさまざまなオフィスサービスを人々に提供するほか、音声やビデオをグラフィックコンテンツに変換する機能、章ごとに要約する機能、全文の意見を要約する機能も実現できます。 「人間のような」効率的な検索と分類能力を備えています。さらに、細分化されたシナリオでは、Chrome プラグインを開くことができ、外国語学習者や聴覚障害者は、バイリンガルのフローティング字幕バーを使用してビデオを視聴することができるなど、多くの「お宝」機能も備えています。スケジュールが競合することなく、いつでもどこでも字幕を作成できます。同時に、Tingwu は専門家の「会議の代役」にもなります。会議がミュートになっている場合、AI は会議を録音し、重要なポイントを整理できます。文字起こしの結果は、字幕ファイルとしてダウンロードして、新しいメディアの専門家によるビデオのポストプロダクションを容易にすることができます; Tingwu が Q&A レビューを整理することで、記者、アナリスト、弁護士、人事、その他のグループがインタビューをより効率的に整理できるようになります。つまり、特定のシーンの問題を解決する能力という点で、既存のオーディオおよびビデオ アプリケーションの能力を超え、これまでのユーザー エクスペリエンスの上限を更新したものであり、業界に大きな波紋を起こすことは間違いありません。
一方、Alibaba Cloud 自体からは、Tongyi Qianwen ビッグ モデルがローンチされたばかりで、AI ビッグ モデルに基づいた技術アプリケーションを迅速にローンチできます。これは、Alibaba Cloud AI がビッグ モデルであることを示しています。モデルは確かに比較的成熟しており、AI アプリケーションを派生する機能を備えています。
モデル層からアプリケーション層へ、AIの大規模モデルから大規模モデルアプリケーションの誕生まで、簡単そうに見えて実際に実装するのは簡単ではありません。一般に、垂直アプリケーションは、一般的な大規模モデルの技術ベースに基づいて実装されますが、一般的な大規模モデルはともかく、これらを実装することは通常不可能であり、そのためには、依存する一般的な大規模モデルが十分に成熟している必要があります。比較的使いやすく、既存の製品の機能を超えるアプリケーションを立ち上げることは困難です。 Tongyi Tingwu を例に挙げると、その技術力は業界のすべてのプレーヤーに共有されているわけではありません。
フルシステム AI インフラストラクチャが勝利の鍵となる
大規模な AI モデル自体に必要な数千億のパラメーター トレーニング要件から判断すると、その進歩の難しさと複雑さは、外部の世界が想像しているものをはるかに超えている可能性があります。長期的には、フルスタック AI ラージモデルの技術力とインフラストラクチャ機能を備えた企業のみが、さらに先に進むことができるでしょう。
まず第一に、生成 AI の開発速度は外部の予想をはるかに上回っているため、単一のリンクの進捗が大規模モデルのトレーニング全体に及ぼす促進効果は限られています。 OpenAI の計算によると、2012 年以来、AI モデル トレーニングのためのコンピューティング パワーに対する世界的な需要は 3 ~ 4 か月で 2 倍になり、年間成長率は最大 10 倍となっています。しかし、ムーアの法則によれば、チップ コンピューティングのパフォーマンスは 18 ~ 24 か月ごとに 2 倍にしかならないため、チップのパフォーマンスが大規模な AI モデルの開発要件に追いついていないことを意味します。関連分野に特有の、CPU ベースのコンピューティング システムは、大規模なモデルのトレーニングに必要な高帯域幅と低レイテンシのネットワーク伝送要件を満たすことが困難です。これらの問題の解決は、単一の「山のようなコンピューティング能力」に依存するだけでは、短期的には効果的ではありません。この変化にうまく対処するには、アルゴリズム、計算能力、フレームワークなどによるマルチレベルのシステム全体のサポートに依存する必要があります。
第 2 に、汎用の大規模モデルの開発には、大規模なコンピューティング能力要件、高い推論トレーニング コスト、および大量のデータ量要件が必要なため、しきい値自体が非常に高く、次のような能力がありません。フルスタックの大規模モデルを開発し、シナリオを実装する 能力が低く環境に開放的な企業は、速いペースでの変化を維持することが難しく、簡単に淘汰されてしまいます。 業界関係者の分析によると、外部の商業化のために輸出できる汎用大規模モデルを成功させるには、メーカーはフルスタックの大規模モデルのトレーニングと研究開発能力、ビジネス シナリオの実装経験、AI セキュリティ ガバナンス対策、および生態学的開放性やその他の核となる利点があり、一般の企業がこれらの能力を完全に備えることは困難です。
アジア初、世界第 3 位のクラウド コンピューティング サービス プロバイダーである Alibaba Cloud は、中国で最強のコンピューティング能力サポート システムを備えています。たとえば、Alibaba Cloud Feitian Cloud オペレーティング システムは、100,000 ユニットの単一クラスター規模と 1,000 億ファイルのコンピューティング容量を実現でき、その Feitian インテリジェント コンピューティング プラットフォームは、1,000 枚のカードで 90% の並列効率を達成でき、自社開発のネットワーク アーキテクチャにより、 10,000 枚のカード規模 AI クラスターは輻輳のない高性能クラスター通信機能を提供 Alibaba Cloud 独自の深層学習プラットフォーム PAI により、コンピューティング リソースの使用率が 3 倍以上、AI トレーニングの効率が 11 倍、推論の効率が 6 倍向上。さらに、Alibaba Cloud は、大規模なモデル開発のコストを削減し、AI の包括性を支援するために、中国最大の AI モデル サービス コミュニティ「Magic」の設立にも率先して取り組んでおり、アルゴリズムの面では、Alibaba は高度な言語機能とマルチモーダル機能を備えています。 、超大型モデル、および一般的な統一モデル。多くの技術的側面において、中国の第一段階にあります。これが、アリ・トンイの大型モデルがすぐに「サークルから抜け出す」ことができる中心的な理由です。
第三に、ビジネスの可能性の観点から見ると、フルシステムの AI インフラストラクチャ機能を備えた企業は、MaaS (Model as a Service) の登場後により大きなビジネス価値を持ち、より大きな市場競争を繰り広げることになります。」 」。 Alibaba Cloudを例に挙げると、後期では一般的な大規模モデルサービスを提供することでプラットフォームサービス料を得ることができるだけでなく、コンピューティングパワーをレンタルしたり、トレーニングプラットフォームを宣伝したりして家賃を稼ぐ方法も比較的多くなります。状況に応じて製品の価格を柔軟に調整し、運用上の課題に対処します。
業界は AI HP の時代を歓迎します
AI ラージ モデル アプリケーションの誕生により、AI の深い包括性を特徴とする新時代が徐々に始まり、AI は産業組織に深く組み込まれ、不可逆的な業界トレンドとなるでしょう。
一方で、汎用大型モデルの敷居の高さと垂直分野での多岐にわたる差別化ニーズにより、今後は専用大型モデルや汎用大型モデルをベースとした産業用アプリケーションが主流となることが予想されます。 、AI の加速を促進し、数千の業界に参入。 前述したように、汎用大型モデルの敷居が高いため、汎用大型モデルを作成できるのは国内外で数社に限られており、AI モデルの大型化に伴い、AI 業界は「手作り工房」で構成される軽工業 集約的な生産には、工業生産を完了するための高性能かつ低コストの体系的なインフラが必要です。
多くの中小企業にはこの能力がないだけでなく、さまざまな業界の大手企業であっても、大規模モデルのトレーニングを 0 から 1 に最適化すること自体が経済的ではありません。あらゆる階層が AI インフラストラクチャを必要としています。コストが十分に低い。また、既存のメーカーにとっては、この分野に参加し続けて「車輪の再発明」を行う必要はありません。対照的に、大規模な垂直モデルのトレーニング コストは比較的低く、専門分野で豊富なデータ シナリオを持つ一部の企業は、大規模な垂直モデルを構築するためのより良い条件とより優れたデータ品質を備えており、その企業が発売する製品は垂直産業により適しています。したがって、さまざまな垂直産業における GPT は、将来的には大規模モデル アプリケーションの主流となり、業界への AI の急速な浸透を促進する可能性があります。
一方、大規模な AI モデルの開発における短期的なボトルネックはコンピューティング能力であり、長期的にはデータです。したがって、高品質のフロントエンド アプリケーションは、企業が十分なデータを蓄積するのを加速するのに役立ちます。資産を活用し、長期的な競争力を強化し、包括的な産業応用のプロセスを加速します。 現在、大規模モデルの急速な反復と進化により、すべての参加プレーヤーはコンピューティング能力リソースを継続的に蓄積し、チップやクラウド サービスなどのさまざまな側面から構成を最適化して、大規模モデルのトレーニングに必要なコンピューティング能力サポートを確保する必要があります。しかし、長期的には、大規模な AI モデルをトレーニングするためのアルゴリズムは依然として継続的に最適化および調整されており、将来的にはアルゴリズムのブレークスルーにより、コンピューティング能力がボトルネックではなくなり、高品質のデータ リソースが不足する可能性があります。リソースは、より多くの注目を集めるでしょう。
AI 大型モデルに基づく業界初のアプリケーションとして、Tongyi Tingwu のリリースは、アリババが高品質のデータ リソースの蓄積を加速し、産業包括性のプロセスを加速し、長期的な開発のための良好な基盤を築くのに役立ちます。
以上がTongyi Tingwu誕生の裏側、AI大規模モデル応答アプリケーションの第一弾の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。