BERT から ChatGPT まで、北杭大学を含む 9 つのトップ研究機関の包括的なレビュー: 私たちが長年にわたって一緒に追求してきた「事前トレーニング基本モデル」

PHPz
リリース: 2023-04-15 13:22:07
転載
1371 人が閲覧しました

ChatGPT のショット数が少ないシナリオとショット数がゼロのシナリオにおける驚くべきパフォーマンスにより、研究者は「事前トレーニング」が正しい方法であるとの確信を深めました。

事前トレーニング済み基盤モデル (PFM) は、さまざまなデータ モード、つまり大規模データ、BERT、GPT-3、Pre に基づくさまざまなダウンストリーム タスクの基礎であると考えられています。 MAE、DALLE-E、ChatGPT などのトレーニング済みの基本モデルは、ダウンストリーム アプリケーションに適切なパラメーター初期化を提供するようにトレーニングされています。

BERT から ChatGPT まで、北杭大学を含む 9 つのトップ研究機関の包括的なレビュー: 私たちが長年にわたって一緒に追求してきた「事前トレーニング基本モデル」

PFM の背後にある事前トレーニングのアイデアは、大規模なモデルの適用において重要な役割を果たします。再帰的モジュールは特徴抽出にさまざまな方法を使用し、生成事前トレーニング (GPT) 方法では、Transformer を特徴抽出器として使用して、大規模なデータ セットに対して自己回帰トレーニングを実行します。

PFM はさまざまな分野で大きな成功を収めているため、近年発表された論文では多数の手法、データセット、評価指標が提案されています。 BERT: ChatGPT の開発プロセスを追跡する包括的なレビュー。

最近、北航大学、ミシガン州立大学、リーハイ大学、南洋工業大学、デューク大学、その他多くの国内外の有名な大学や企業の研究者が共同で、 -prediction 基本モデルのトレーニングに関するこのレビューでは、テキスト、画像、グラフの分野における最近の研究の進歩と、現在および将来の課題と機会を提供します。

BERT から ChatGPT まで、北杭大学を含む 9 つのトップ研究機関の包括的なレビュー: 私たちが長年にわたって一緒に追求してきた「事前トレーニング基本モデル」

論文リンク: https://arxiv.org/pdf/2302.09419.pdf

研究まず、自然言語処理、コンピューター ビジョン、グラフ学習の基本コンポーネントと既存の事前トレーニングを確認し、次に他のデータ モデル用の高度な PFM と、データの品質と量を考慮した統合 PFM について説明し、PFM の基本原理について説明します。 、モデルの効率と圧縮、セキュリティとプライバシーなど、この記事では最後に、将来の研究の方向性、課題、未解決の問題など、いくつかの重要な結論を列挙しています。

BERT から ChatGPT へ

事前トレーニングされた基本モデル (PFM) は、ビッグデータ時代の人工知能システム構築の重要な部分です自然言語処理 (NLP)、コンピューター ビジョン (CV)、グラフ学習 (GL) の 3 つの主要な人工知能分野は、広く研究され、応用されています。

PFM は、さまざまな分野内またはクロスドメイン タスクで有効な一般的なモデルであり、テキスト分類、テキスト生成、画像などのさまざまな学習タスクにおける特徴表現の学習に大きな可能性を示します。分類、物体検出、グラフ分類など

PFM は、大規模なコーパスを使用して複数のタスクをトレーニングしたり、同様の小規模なタスクを微調整したりする際に優れたパフォーマンスを示し、迅速なデータ処理の開始を可能にします。

PFM と事前トレーニング

PFM は事前トレーニング テクノロジに基づいており、大量のデータとタスクを使用して、一般的なモデルをトレーニングします。これは、さまざまなダウンストリーム アプリケーションで簡単に微調整できます。

事前トレーニングのアイデアは、CV タスクにおける転移学習から生まれました。CV 分野での事前トレーニングの有効性を認識した後、人々は事前トレーニング テクニックを次の目的で使用し始めました。他のフィールドのモデルのパフォーマンスを向上させます。事前トレーニング手法を NLP 分野に適用すると、十分にトレーニングされた言語モデル (LM) によって、長期的な依存関係や階層関係など、下流のタスクに有益な豊富な知識を取得できます。

さらに、NLP の分野における事前トレーニングの大きな利点は、ラベルのないテキスト コーパスからトレーニング データを取得できること、つまり、データ量が無制限であることです。トレーニング前のプロセス データでのトレーニングの。

初期の事前トレーニングは、NNLM や Word2vec などの静的手法であり、異なるセマンティック環境に適応するのが困難でしたが、その後の研究者は、BERT や Word2vec などの動的な事前トレーニング テクノロジを提案しました。 XLネットは待ってください。

BERT から ChatGPT まで、北杭大学を含む 9 つのトップ研究機関の包括的なレビュー: 私たちが長年にわたって一緒に追求してきた「事前トレーニング基本モデル」

NLP、CV、GL の分野における PFM の歴史と進化

に基づく事前トレーニング テクノロジー PFM は大規模なコーパスを使用して一般的な意味表現を学習します。これらの先駆的な研究の導入により、さまざまな PFM が登場し、下流のタスクやアプリケーションに適用されています。

PFM アプリケーションのわかりやすい例は、最近人気のある ChatGPT です。

BERT から ChatGPT まで、北杭大学を含む 9 つのトップ研究機関の包括的なレビュー: 私たちが長年にわたって一緒に追求してきた「事前トレーニング基本モデル」

ChatGPT は、生成的な事前トレーニング済みの Transformer、つまり、テキストの混合コーパスでトレーニングした後の GPT-3.5 です。 ChatGPT は、大規模な LM と人間の意図を一致させるための現在最も有望な方法である、ヒューマン フィードバックによる強化学習 (RLHF) テクノロジーを使用します。

ChatGPT の優れたパフォーマンスは、各タイプの PFM のトレーニング パラダイムの変革、つまり、強化学習 ( RL)、迅速な調整と思考の連鎖、そして最終的には一般的な人工知能に向けて。

この記事では、研究者は主に、比較的成熟した研究分類方法でもあるテキスト、画像、グラフに関連する PFM をレビューします。

BERT から ChatGPT まで、北杭大学を含む 9 つのトップ研究機関の包括的なレビュー: 私たちが長年にわたって一緒に追求してきた「事前トレーニング基本モデル」

#テキストの場合、言語モデルは次の単語や文字を予測することでさまざまなタスクを実行できます (PFM など)。機械翻訳、質問応答システム、トピックモデリング、感情分析などに使用できます。

画像の場合、テキストの PFM と同様に、複数の CV タスクに適した大規模なモデルをトレーニングするために大規模なデータセットが使用されます。

グラフの場合、同様の事前トレーニングのアイデアを使用して PFM を取得し、多くの下流タスクに使用できます。

この記事では、特定のデータ ドメイン用の PFM に加えて、音声、ビデオ、クロスドメイン データ用の PFM、マルチモーダルなどの他の高度な PFM についても確認および説明します。 PFM。

さらに、マルチモダリティに対応できる PFM の大きな融合トレンド、いわゆる統合 PFM が出現しつつあります。研究者は最初に統合 PFM の概念を定義し、その後、 OFA、UNIFIED-IO、FLAVA、BEiT-3 など、最近の研究における最先端の統合 PFM がレビューされています。

これら 3 つの分野における既存の PFM の特性に基づいて、研究者らは、PFM には次の 2 つの大きな利点があると結論付けました。

1 。下流タスクでのモデルのパフォーマンスを向上させるには、最小限の微調整のみが必要です;

2. PFM は品質の面でテストに合格しています。

同様の問題を解決するためにモデルを最初から構築するよりも、タスク関連のデータセットに PFM を適用する方が良い選択肢です。

PFM の大きな見通しにより、多くの関連研究がモデルの効率、セキュリティ、圧縮などの問題に焦点を当てるようになりました。

このレビューの特徴は次のとおりです:

    研究者は、NLP、CV、および GL の開発における PFM に関する最新の研究結果を追跡しました。これら 3 つの主要なアプリケーション領域における一般的な PFM 設計と事前トレーニング方法についてしっかりと要約、議論し、反映させています。

    音声やビデオなどの他のマルチメディア分野における PFM の開発を要約し、統合 PFM、モデルの効率と圧縮など、PFM に関するより深いトピックについてさらに説明します。 、セキュリティとプライバシーも同様です。

    さまざまなモダリティにおけるさまざまなタスクに対する PFM のレビューを通じて、ビッグデータ時代の非常に大規模なモデルに関する将来の研究の主な課題と機会について説明します。 , PFM に基づいた新世代の協調的かつ対話型インテリジェンスの開発を導きます。

参考: https://arxiv.org/abs/2302.09419

以上がBERT から ChatGPT まで、北杭大学を含む 9 つのトップ研究機関の包括的なレビュー: 私たちが長年にわたって一緒に追求してきた「事前トレーニング基本モデル」の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!