Google AI は、Gemini 1.5 Pro 大規模言語モデル (LLM) を皮切りに、拡張コンテキスト ウィンドウとコスト削減機能へのアクセスを開発者に提供し始めました。以前は待機リストを通じて利用可能でしたが、現在は 200 万トークンの完全なコンテキスト ウィンドウがすべての開発者に開かれています。 Google はまた、複数のプロンプト間で同様の情報を再利用するタスクのコストを削減するために、コンテキスト キャッシュを導入しています。
新しいアップデートにより、Gemini 1.5 Pro および Flash モデルは Python コードを動的に生成して実行できるようになりました。モデルはさらにデータ分析と数学を利用して、推論の問題を効果的に解決できます。 Google によると、コード実行環境は安全であり、インターネット アクセスはありません。同社はまた、開発者はモデルによって生成された最終出力に対してのみ請求されると述べています。軽量の Gemma 2 モデルも Google AI Studio 内で使用できるようになりました。興味のある方は、Google AI Studio の「詳細設定」からアクセスしてください。
いくつかの企業がすでに Google Gemini 1.5 Flash を使用しています。このテクノロジーを利用するアプリのリストには、視覚障害のあるユーザーを支援する Envision、Plural のポリシー分析、Zapier のビデオ処理、Dot のパーソナライズされた AI 記憶システムが含まれます。現在開発者向けに展開されているもう 1 つの機能は、Google の投稿で「テキスト チューニング」と呼ばれるもので、7 月中旬までにこの機能に完全にアクセスできるようになる予定です。
Working For Notebookcheck あなたは書き方を知っている技術者ですか?それなら私たちのチームに参加してください!募集: - ニュースライター詳細はこちら以上がGoogle AI、開発者向けに Gemini 1.5 Pro と Gemma 2 を発表の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。