GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

PHPz
リリース: 2023-05-31 16:23:41
転載
1167 人が閲覧しました

Windows Copilot のリリースに続いて、Microsoft Build カンファレンスは スピーチ によって爆発しました。

元 Tesla AI ディレクターの Andrej Karpathy 氏は、スピーチの中で、tree of thought は AlphaGo の Monte Carlo Tree Search (MCTS) に似ていると信じていました。なんと素晴らしいことでしょう。

ネチズンは叫びました: これは、大規模な言語モデルと GPT-4 モデルの使用方法に関する最も詳細で興味深いガイドです!

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

さらに、Karpathy 氏は、トレーニングとデータの拡張により、LLAMA 65B が「GPT-3 175B よりも大幅に強力」であることを明らかにしました。大型モデルを導入しました Anonymous Arena ChatBot Arena:

Claude のスコアは ChatGPT 3.5 と ChatGPT 4 の間です。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

ネチズンは、カルパシーのスピーチはいつも素晴らしく、今回の内容はいつものように誰もを失望させるものではなかったと述べています。

このスピーチで拡散したのは、そのスピーチをもとに Twitter ネチズンが編集したメモです。メモは 31 件あり、いいねの数は 3,000 を超えています:

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

それでは、この待望のスピーチでは具体的にどのような内容が語​​られたのでしょうか?

GPT アシスタントをトレーニングするにはどうすればよいですか?

今回のカルパシーのスピーチは主に2つのパートに分かれています。

パート 1 では、「GPT アシスタント」をトレーニングする方法について話しました。

Karpathy は主に、AI アシスタントの 4 つのトレーニング段階 (事前トレーニング、教師あり微調整、報酬モデリング、強化学習) について話しています。

各ステージにはデータ セットが必要です。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

トレーニング前の段階では、多数のデータセットを収集するために大量のコンピューティングリソースを使用する必要があります。基本モデルは、大規模な教師なしデータセットでトレーニングされます。

Karpathy は補足するためにさらに多くの例を使用しました:

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

その後、微調整段階に入ります。

より小規模な教師ありデータセットを使用し、教師あり学習を通じてこの基本モデルを微調整することで、質問に答えることができる

アシスタント モデルを作成できます。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

いくつかのモデルの進化過程も見せていただきましたが、上の「進化ツリー」の図を見たことがある人も多いと思います。


Karpathy は、現時点で最良のオープンソース モデルは Meta の LLaMA シリーズであると考えています (OpenAI は GPT-4 に関するものをオープンソースにしていないため)。

ここで明確に指摘しておく必要があるのは、

基本モデルはアシスタント モデルではないということです

基本モデルには問題を解決する機能がありますが、その答えは信頼できませんが、アシスタント モデルは信頼できる答えを提供できます。教師あり微調整アシスタント モデルは、基本モデルに基づいてトレーニングされており、応答の生成とテキスト構造の理解におけるパフォーマンスは、基本モデルよりも優れています。

強化学習は、言語モデルをトレーニングする際のもう 1 つの重要なプロセスです。

トレーニング プロセス中に手動で注釈が付けられた高品質のデータを使用し、報酬モデリング方式で損失関数を作成してパフォーマンスを向上させます。強化トレーニングは、ポジティブなマーキングの確率を高め、ネガティブなマーキングの確率を減らすことによって達成できます。

創造的なタスクに関して AI モデルを改善するには人間の判断が不可欠であり、人間のフィードバックを組み込むことでモデルをより効果的にトレーニングできます。

人間のフィードバックによる強化学習の後、RLHF モデルを取得できます。

モデルがトレーニングされた後の次のステップは、これらのモデルを効果的に使用して問題を解決する方法です。

モデルをより効果的に使用するにはどうすればよいですか?

パート 2 では、Karpathy が戦略の促進、微調整、急速に進化するツール エコシステム、将来の拡張について説明します。

カルパシーは、別の具体的な例を挙げて説明しました。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

文章を書くとき、私たちは多くの精神活動を行う必要があります。表現が正確かどうかを検討することも含めて。 GPT の場合、これは単にタグ付けされたトークンのシーケンスにすぎません。

そして

prompt は、この認知的ギャップを補うことができます。

カルパシーは、

思考連鎖プロンプトがどのように機能するかをさらに説明しました。

推論の問題について、自然言語処理で Transformer のパフォーマンスを向上させたい場合は、非常に複雑な問題を直接投げるのではなく、Transformer に情報を段階的に処理させる必要があります。

いくつかの例を与えると、この例のテンプレートを模倣し、最終的な結果がより良くなります。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

#モデルは、順序に従って質問にのみ答えることができます。生成したコンテンツが間違っている場合は、プロンプトを表示して、モデルに応答させることができます。再生します。

チェックを依頼しないと、自動的にチェックしません。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない#これには、System1 と System2 の問題が関係します。

ノーベル経済学賞受賞者ダニエル・カーネマンは、「Thinking Fast and Slow」の中で、人間の認知システムはシステム1とシステム2の2つのサブシステムで構成されていると提唱しました。 System1 は主に直感に依存するのに対し、System2 は論理的な分析システムです。

平たく言えば、System1 は高速で自動的に生成されるプロセスであり、System2 はよく考えられた部分です。

これは、最近話題になった論文「Tree of thought」でも言及されています。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない 「思慮深い」とは、単に質問に答えるということではなく、Python グルー コードで使用されるプロンプトに似ており、多くのプロンプトが連結されて組み込まれています。ヒントをスケーリングするには、モデルで複数のヒントを維持し、ツリー検索アルゴリズムを実行する必要があります。

Karpathy は、この考え方が AlphaGo に非常に似ていると考えています。

AlphaGo が碁をプレイするとき、次の駒をどこに置くかを考慮する必要があります。最初は人間の真似をして学習しました。

これに加えて、モンテカルロ ツリー検索を実装して、複数の潜在的な戦略による結果を取得します。多くの可能な手を評価し、より良い動きのみを保持します。これはAlphaGoとある程度同等だと思います。

これに関連して、Karpathy 氏は AutoGPT についても言及しています。

私は、その効果は現時点ではあまり良くないと考えており、実用化はお勧めしません。私たちは時間の経過によるその進化から学ぶことができるかもしれないと思います。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない第 2 に、もう 1 つの小さなトリックは、拡張生成 (拡張生成の取得) と効果的なプロンプトを取得することです。

ウィンドウ コンテキストの内容は、実行時のトランスフォーマーの作業メモリです。タスク関連の情報をコンテキストに追加できれば、これらのメッセージにすぐにアクセスできるため、パフォーマンスが非常に向上します。

つまり、関連データにインデックスを付けてモデルに効率的にアクセスできることを意味します。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

# トランスフォーマーには、参照するメイン ファイルがある場合、パフォーマンスが向上します。

最後に、Karpathy は、大規模な言語モデルにおける制約のプロンプトと微調整について簡単に説明しました。
大規模な言語モデルは、制約のヒントと微調整によって改善できます。制約ヒントは大規模な言語モデルの出力にテンプレートを適用し、微調整によってモデルの重みを調整してパフォーマンスを向上させます。

低リスクのアプリケーションでは大規模な言語モデルを使用し、常に人間の監視と組み合わせ、インスピレーションやアドバイスの源として扱い、副操縦士を完全に自律的に動作させるのではなく副操縦士を考慮することをお勧めします。

Andrej Karpathy について

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

## Andrej Karpathy 博士の卒業後の最初の仕事は、OpenAI でコンピュータ ビジョンを研究することでした。

その後、OpenAI の共同創設者の 1 人であるマスクがカルパシーに恋をし、彼をテスラに雇用しました。この件に関してマスク氏とOpenAIは対立し、最終的にマスク氏は排除された。 Karpathy 氏は、Tesla の Autopilot、FSD、およびその他のプロジェクトを担当しています。

テスラを退職してから 7 か月後の今年 2 月、Karpathy 氏は再び OpenAI に加わりました。

最近彼は、オープンソースの大規模言語モデル エコシステムの開発に現在非常に興味を持っているとツイートしました。これはカンブリア紀初期の爆発の兆候に少し似ています。

GPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いない

ポータル:
[1]https://www.youtube.com /watch?v=xO73EUwSegU (スピーチビデオ)

[2]https://arxiv.org/pdf/2305.10601.pdf (「思考の木」論文)

# 参考リンク: [1]https://twitter.com/altryne/status/1661236778458832896

[2]https://www.reddit.com/r/MachineLearning/comments/13qrtek/n_state_of_gpt_by_andrej_karpathy_in_msbuild_2023/
[ 3]https://www.wisdominanutshell.academy/state-of-gpt/

以上がGPTの現状をついに誰かが明らかにしてくれました! OpenAIの最新のスピーチは急速に広まったが、それはマスク氏が厳選した天才に違いないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート