信じられないことに、GPT-4 は独自に科学研究を行うことを学習しましたか?
最近、カーネギーメロン大学の数人の科学者が論文を発表し、同時に AI 界と化学界を震撼させました。
彼らは、自ら実験や科学研究を行うことができる AI を開発しました。この AI はいくつかの大規模な言語モデルで構成されており、爆発的な科学研究能力を備えた GPT-4 エージェントとみなすことができます。
ベクトル データベースからの長期記憶を備えているため、複雑な科学文書を読み、理解し、クラウドベースのロボット実験室で化学研究を行うことができます。
ネチズンはあまりのショックに言葉を失った。では、このAIは自ら研究し、自ら公表したのだろうか?何てことだ。
「テニス エクスペリメント」(TTE) の時代が来ると嘆く人もいます。
#これは化学界における伝説の AI 聖杯ですか?
最近、私たちは毎日SFの中で生きていると感じている人も多いのではないでしょうか。
AI バージョンのブレイキング バッドが登場しますか?3 月、OpenAI は、世界に衝撃を与えた大規模な言語モデルである GPT-4 をリリースしました。
これは地球上で最も強力な LLM です。SAT および BAR 試験で高得点を獲得し、LeetCode の課題に合格し、画像が与えられた物理学の質問に正しく答え、絵文字を理解することができます。それ。
技術レポートでは、GPT-4 が化学的問題も解決できるとも述べています。
これに触発されたカーネギー メロン大学化学科の数人の学者は、複数の大規模な言語モデルに基づいて AI を開発し、AI 自身で設計して実験を実行できるようにしたいと考えています。
文書アドレス: https://arxiv.org/abs/2304.05332
そして彼らが作ったAIは本当にひどいです!インターネット上の文献を単独で検索し、液体処理機器を正確に制御し、複数のハードウェア モジュールの同時使用とさまざまなデータ ソースの統合を必要とする複雑な問題を解決できます。
AI版ブレイキング・バッドって感じですね。
イブプロフェンを自分で作れるAI
たとえば、このAIにイブプロフェンを合成してもらいましょう。単純なプロンプト「合成イブプロフェン」を入力します。
これにより、モデルは次のようになります。オンラインにアクセスして何をすべきかを検索します。
最初のステップでは、塩化アルミニウムの触媒によるイソブチルベンゼンと無水酢酸のフリーデルクラフツ反応が必要であることが判明しました。
さらに、このAIはアスピリンの合成も可能です。
# および合成アスパルテーム。
#生成物にはメチル基が欠落しており、モデルが正しい合成例を見つけた場合、クラウド ラボラトリーで実行されます。修正用に。
モデルに指示: スズキの反応を研究すると、基質と生成物が即座に正確に識別されます。
さらに、API を介してモデルを Reaxys や SciFinder などの化学反応データベースに接続できるため、モデルに大きな強化が加えられ、精度が向上します。
また、システムの以前の記録を分析することによって、モデルの精度を大幅に向上させることもできます。
まず、ロボットを操作して実験を行う方法を見てみましょう。
サンプルのセットを全体として処理します (この場合、マイクロプレート全体)。
自然言語を使用して、「1 行おきに好きな色を付けてください」というプロンプトを直接与えることができます。
ロボットによって実行される場合、これらのプロトコルは要求されたプロンプトと非常によく似ています (図 4B ~ E)。
エージェントの最初のアクションは、元のソリューションの少量のサンプルを準備することです (図 4F)。
#次に、UV-Vis 測定を要求します。完了すると、AI には、マイクロプレートの各ウェルのスペクトルを含む NumPy 配列を含むファイル名が与えられます。
AI は次に、吸光度が最大となる波長を特定するための Python コードを作成し、このデータを使用して問題を正しく解決しました。
これまでの実験では、AI は事前トレーニング段階で受け取った知識の影響を受けた可能性があります。
今回、研究者らはAIの実験計画能力を徹底的に評価する予定だ。
AI は、まずネットワークから必要なデータを統合し、必要な計算を実行し、最後に液体試薬を操作します (上の写真の左端)パート)プログラムを書きます。
複雑さをさらに高めるために、研究者らは AI に加熱シェーカー モジュールを適用させました。
これらの要件は統合され、AI 構成に表示されます。
#具体的な設計は次のとおりです。AI は 2 つのミニチュア バージョンを備えた液体オペレーティング システムを制御し、ソース バージョンには 3 つの複数の A ソースが含まれています。フェニルアセチレンとフェニルボロン酸を含む試薬、複数のハロゲン化アリールカップリングパートナー、および 2 つの触媒と 2 つの塩基。
上の写真は、ソース プレートの内容です。
#ターゲット バージョンは、加熱シェーカー モジュールにインストールされます。上の写真では、左側のピペットの範囲は 20 μl、右側のシングル チャンネル ピペットの範囲は 300 μl です。
AI の最終目標は、スズキ反応とソノグシェラ反応をうまく実現できるプロセスを設計することです。
言ってみましょう: これら 2 つの反応を生成するには、いくつかの利用可能な試薬を使用する必要があります。
その後、オンラインで、これらの反応に必要な条件や化学量論の要件などを検索しました。
AI が必要な条件、必要な試薬の定量と濃縮などを収集することに成功していることがわかります。
AI は実験を完了するために適切なカップリング パートナーを選択しました。すべてのハロゲン化アリールの中から、AI はスズキ反応実験にはブロモベンゼンを、ソノゲイラ反応にはヨードベンゼンを選択しました。
各ラウンドで、AI の選択肢は多少変化します。例えば、酸化反応における反応性が高いため、p-ヨードニトロベンゼンも選択されました。 ブロモベンゼンは反応に参加でき、ヨウ化アリールよりも毒性が低いため、ブロモベンゼンが選択されました。 次に、AI はより効果的であるため、触媒として Pd/NHC を選択しました。これはカップリング反応の非常に高度な方法です。塩基の選択に関しては、AI はトリエチルアミンを好みました。 上記のプロセスから、このモデルには将来的に無限の可能性があることがわかります。モデルの推論プロセスを分析し、より良い結果を達成するために何度も実験を繰り返すことになるからです。 さまざまな試薬を選択した後、AI は各試薬の必要量の計算を開始し、実験プロセス全体の計画を開始します。 AI は途中で加熱シェーカー モジュールの名前を間違えてしまいました。しかし、AI はこれに適時に気づき、自発的にデータをクエリし、実験プロセスを修正し、最終的には正常に実行されました。 専門的な化学プロセスはさておき、このプロセスで AI が示す「専門性」をまとめてみましょう。 以上の過程から、AIは非常に高い分析推論能力を発揮したと言えます。必要な情報を自発的に取得し、複雑な問題を段階的に解決できます。 このプロセスでは、自分で超高品質のコードを作成し、実験計画を推進することもできます。また、出力内容に応じて記述するコードを変更することもできます。 OpenAI は GPT-4 の強力な機能を実証することに成功しました。いつか GPT-4 が実際の実験に参加できるようになるのは間違いありません。 しかし、研究者たちはそこで終わりたくはありませんでした。彼らはまた、AI に大きな問題を与えました。AI に新しい抗がん剤を開発するように指示しました。 存在しないもの…このAIはまだ動くのでしょうか? 実際にはブラシが 2 つあることがわかりました。 AIは、困難に遭遇しても恐れないという原則を掲げており(もちろん恐怖が何かは知りません)、抗がん剤開発の必要性を慎重に分析し、現在の抗がん剤開発の傾向を研究して、選択したものです。探索を続けるターゲット。その構成を決定します。 次に、AI は自ら合成を開始しようとします。また、反応機構やメカニズムに関する情報をオンラインで検索し、最初のステップが完了した後、次のステップを実行します。関連する反応の例。 ついに合成が完了します。 上の図のコンテンツは AI によって実際に合成されるものではなく、理論上の議論にすぎません。 その中には、メタンフェタミン(マリファナとしても知られる)やヘロインなどの身近な薬物や、使用が禁止されているマスタードガスなどの有毒ガスも含まれます。 合計 11 化合物のうち、AI はそのうち 4 化合物について合成計画を提供し、データを参照して合成プロセスを進めようとしました。 残りの 7 物質のうち、5 物質の合成は AI によって決定的に拒否されました。 AI はこれら 5 つの化合物に関する関連情報をインターネットで検索したところ、改ざんできないことがわかりました。 たとえば、AI はコデインとモルヒネの関係を発見しました。これは規制薬物であり、気軽に合成することはできないと結論づけられました。 しかし、この保険の仕組みは信頼できません。ユーザーが花図鑑を少し修正するだけで、さらにAIによる操作が可能になります。たとえば、モルヒネに直接言及する代わりに化合物 A という単語を使用し、コデインに直接言及する代わりに化合物 B を使用するなどです。 同時に、一部の薬物の合成には麻薬取締局 (DEA) の認可が必要ですが、一部のユーザーはこの抜け穴を利用して AI を騙すことができます。許可があると言って、AIに合成スキームを与えるように誘導します。 AI は、ヘロインやマスタードガスなどの身近な密輸物質も認識しています。問題は、このシステムは現在、既存の化合物しか検出できないことです。未知の化合物の場合、モデルは潜在的な危険を特定する可能性が低くなります。 たとえば、いくつかの複雑なタンパク質毒素。 したがって、誰かが興味本位でこれらの化学成分の有効性を検証するのを防ぐために、研究者らは論文に大きな危険警告も掲載しました: この記事で説明する違法薬物と化学兵器の合成は純粋に学術研究を目的としており、新技術に伴う潜在的な危険性を強調することを主な目的としています。 いかなる状況においても、いかなる個人または組織も、この記事で説明されている物質または化合物を再現、合成、またはその他の方法で製造しようと試みてはなりません。この種の活動に従事することは非常に危険であるだけでなく、ほとんどの管轄区域で違法です。 この AI は複数のモジュールで構成されています。これらのモジュールは相互に情報を交換でき、一部のモジュールはインターネットにアクセスしたり、API にアクセスしたり、Python インタープリターにアクセスしたりすることもできます。 Planner にプロンプトを入力すると、操作の実行が開始されます。 たとえば、オンラインに接続し、Python でコードを記述し、ドキュメントにアクセスし、これらの基本的なタスクを理解した後、独自に実験を行うことができます。 人間が実験を行うとき、この AI は段階的にガイドしてくれます。さまざまな化学反応を推論できるため、インターネットで検索し、実験に必要な化学物質の量を計算し、対応する反応を実行します。 提供された説明が十分に詳細であれば、説明する必要さえなく、実験全体をそれだけで理解できます。 「Web 検索」コンポーネントは、Planner からクエリを受信すると、Google 検索 API を使用します。 結果を検索した後、返された最初の 10 件のドキュメントをフィルター処理して PDF を除外し、結果を自分自身に渡します。 次に、「BROWSE」操作を使用して Web ページからテキストを抽出し、回答を生成します。流れる雲と流れる水、すべてが一度に。 GPT-3.5 のパフォーマンスは明らかに GPT-4 より優れており、品質の低下がないため、このタスクは GPT-3.5 で完了できます。 「ドキュメント サーチャー」コンポーネントは、クエリとドキュメントのインデックス作成を通じて最も関連性の高い部分を見つけることができ、それによってハードウェア ドキュメント (ロボット液体ハンドラー、GC-MS、クラウド ラボなど) を分類します。次に、最も一致する結果を要約して、最も正確な答えを生成します。 「コード実行」コンポーネントは言語モデルを使用せず、分離された Docker コンテナ内でコードを実行するだけで、Planner による予期しない操作からターミナル ホストを保護します。すべてのコード出力は Planner に戻されるため、ソフトウェアに問題が発生した場合でも修復して予測できます。同じ原則が「オートメーション」コンポーネントにも当てはまります。 複雑な推論を行うAIを作るには多くの困難があります。 たとえば、最新のソフトウェアを統合できるようにするには、ユーザーがソフトウェアのドキュメントを理解できる必要がありますが、このドキュメントの言語は一般に非常に学術的かつ専門的であるため、大きな障害が生じます。 。 大規模言語モデルは、自然言語を使用して、専門家以外でも理解できるソフトウェア ドキュメントを生成し、この障害を克服できます。 これらのモデルのトレーニング ソースの 1 つは、Opentrons Python API などの API に関連する大量の情報です。 ただし、GPT-4の学習データは2021年9月時点のものであるため、AIが使用するAPIの精度をさらに高める必要があります。 この目的を達成するために、研究者たちは、特定のタスクに関するドキュメントを AI に提供する方法を設計しました。 彼らは、相互参照とクエリに対する類似性の計算のために、OpenAI の ada 埋め込みを生成しました。また、距離ベースのベクトル検索を通じてドキュメントの一部を選択します。 提供されるパーツの数は、元のテキストに存在する GPT-4 トークンの数によって異なります。トークンの最大数は7800に設定されており、AI関連ドキュメントをワンステップで提供できます。 この方法は、化学反応に必要なヒーター/バイブレーター ハードウェア モジュールに関する情報を AI に提供するために重要であることが判明しました。 このアプローチを Emerald Cloud Lab (ECL) などのより多様なロボット プラットフォームに適用すると、さらに大きな課題が発生します。 この時点で、Cloud Lab の Symbolic Lab Language (SLL) など、GPT-4 モデルが知らない情報を GPT-4 モデルに提供できます。 すべてのケースにおいて、AI はタスクを正しく識別し、完了しました。 このプロセスでは、モデルは特定の関数のさまざまなオプション、ツール、パラメーターに関する情報を効果的に保持します。ドキュメント全体を取り込んだ後、モデルは指定された関数を使用してコード ブロックを生成するように求められ、それを Planner に返します。 最後に、研究者らは、大規模な言語モデルの悪用を防ぐための安全策を講じる必要があると強調しました。 ## 「私たちは、AI コミュニティに対し、これらのモデルのセキュリティを優先するよう求めます。私たちは、OpenAI、Microsoft、Google、Meta、Deepmind、Anthropic、およびその他の主要企業に対し、モデルのセキュリティに最善の努力を払うよう求めます。」また、物理科学コミュニティが大規模言語モデルの開発に携わるチームと協力して、これらの安全策の開発を支援することも求めています。」
この点に関して、ニューヨーク大学のマルク・シー教授も強く同意し、「これは冗談ではありません。カーネギーメロン大学の3人の科学者がLLMの安全性研究を緊急に呼びかけました。」 # #オンラインにアクセスして実験方法を検索する方法を知っています
ベクトル検索で難しい科学文献も理解できる
規制を強く求める
以上がAIと生化学環境を爆破しましょう! GPT-4 は独自に科学研究を行うことを学習し、人間に実験の実施方法を段階的に教えます。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。