Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了

王林
リリース: 2024-04-26 10:19:21
転載
1200 人が閲覧しました

概要

LLaMA-3 (Large Language Model Meta AI 3) は、Meta Company によって開発された大規模なオープンソースの生成人工知能モデルです。前世代のLLaMA-2と比べてモデル構造に大きな変更はありません。

LLaMA-3 モデルは、さまざまなアプリケーション要件やコンピューティング リソースに適応するために、小規模、中規模、大規模などのさまざまな規模のバージョンに分割されています。小型モデルのパラメータ サイズは 8B、中型モデルのパラメータ サイズは 70B、大型モデルのパラメータ サイズは 400B に達します。ただし、トレーニング中の目標は、マルチモーダルおよび複数言語の機能を達成することであり、その結果は GPT 4/GPT 4V に匹敵することが期待されます。

Ollama をインストールする

Ollama は、ユーザーがローカル マシン上で大規模言語モデルを実行およびデプロイできるようにするオープン ソースの大規模言語モデル (LLM) サービス ツールです。 Ollama は、Docker コンテナーで大規模な言語モデルをデプロイおよび管理するプロセスを簡素化し、プロセスを迅速かつ簡単にするフレームワークとして設計されています。ユーザーは、簡単なコマンドライン操作を通じて、Llama 3 などのオープンソースの大規模言語モデルをローカルですばやく実行できます。

公式 Web サイトのアドレス: https://ollama.com/download

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了Pictures

Ollama は、Mac や Linux を含む複数のプラットフォームをサポートし、インストール プロセスを簡素化する Docker イメージを提供するツールです。ユーザーは、Dockerfile の役割に似た Modelfile を作成することで、より多くのモデルをインポートおよびカスタマイズできます。 Ollama には、モデルを実行および管理するための REST API と、モデルと対話するためのコマンドライン ツールセットも備えています。

Ollamaサービス起動ログ

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

モデル管理

モデルをダウンロード

ollama pull llama3:8b
ログイン後にコピー

デフォルトのダウンロードはllama3:8bです。ここのコロンの前のコロンはモデル名を表し、タグの後のコロンはタグを表します。 ここから llama3 のすべてのタグを表示できます

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

モデルテスト

注: モデルを中国語で返信します。最初に入力してください: こんにちは!中国語で返信してください

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了画像

Open-WebUIを設定します

CPUで実行します

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
ログイン後にコピー

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了画像

アクセスしてください

アドレスを入力してください http://127.0.0.1:300 0 アクセス

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

初回訪問には登録が必要です。ここでアカウントを登録します。登録が完了し、ログインが成功しました

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

中国語を切り替える

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

ラマ3:8bモデルをダウンロード

llama3:8b
ログイン後にコピー

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

ダウンロード完了

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

使用

モデルを選択

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

モデルを使用

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

注: モデルに返信してもらいたい場合中国語で、最初に入力してください: こんにちは!中国語で返信してください

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

思い出

Docker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了写真

以上がDocker が LLama3 オープンソース大規模モデルのローカル展開を 3 分で完了の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!