最近、OpenAI Translator と NextChat の両方が、Ollama でローカルに実行される大規模な言語モデルをサポートし始めました。これにより、「初心者」愛好家に新しい遊び方が追加されます。
さらに、Windows での Ollama (プレビュー バージョン) のリリースは、Windows デバイスでの AI 開発のやり方を完全に覆し、AI 分野の探索者と一般の「テスト プレーヤー」に明確な道を導きました。
Ollama は、AI モデルの開発と使用を劇的に簡素化する画期的な人工知能 (AI) および機械学習 (ML) ツール プラットフォームです。
技術コミュニティでは、AI モデルのハードウェア構成と環境構築は常に厄介な問題であり、Ollama はそのような重要なニーズを解決するために登場しました。
多くの AI ツールの中で、Ollama は次の重要な利点で際立っています。これらの機能はその独自性を強調するだけでなく、AI 開発者や愛好家が遭遇する最も一般的な問題も解決します。
OllamaSetup.exe インストール プログラムをダウンロードします。
3インストールが完了したら、Windows で Ollama を使い始めることができます。とても簡単ですね。
1 [スタート] メニューの Ollama アイコンをクリックすると、実行後、タスクバー トレイにアイコンが表示されます。
2 タスクバーのアイコンを右クリックし、「ログの表示」を選択してコマンド ライン ウィンドウを開きます。
3次のコマンドを実行して Ollama を実行し、モデルをロードします:
リーリー上記のコマンドを実行すると、Ollama の初期化が開始され、選択したモデルが Ollama モデル ライブラリから自動的に取得されてロードされます。準備ができたら、指示を送信すると、選択したモデルを理解して応答します。
modelname
名前を実行するモデルの名前に置き換えることを忘れないでください。一般的に使用されるものは次のとおりです:
パラメータ | ###サイズ###インストールコマンド | 出版組織 | ラマ 2 | |
---|---|---|---|---|
3.8GB | オラマ、ラマを実行します2 | メタ
|
コードラマ | |
3.8GB | オラマ ラン コデラマ | メタ
|
ラマ 2 13B | |
7.3GB | オラマ、ラマを実行します2:13b | メタ
|
ラマ 2 70B | |
39GB | オラマ ラン ラマ2:70b | メタ
|
###ミストラル###
7B | |
オラマ・ラン・ミストラル | ミストラルAI |
ミックストラル |
8x7b | |
オラマ ラン ミックストラル:8x7b | ミストラルAI |
ファイ-2 |
2.7B | |
オラマ ラン ファイ | マイクロソフトリサーチ |
LLaVA |
7B | |
オラマ・ラン・ラヴァ | マイクロソフトリサーチ | コロンビア大学ウィスコンシン州
|
ジェマ 2B 2B |
|
オラマ ラン ジェマ:2b | ###グーグル### | ジェマ 7B
7B |
4.8GB | |
###グーグル### | クウェン 4B | 4B
2.3GB |
オラマ ラン クウェン:4b | |
アリババ | クウェン 7B | 7B
4.5GB |
オラマ ラン クウェン:7b | |
アリババ | クウェン 14B | 14B
8.2GB |
オラマ ラン クウェン:14b | |
アリババ |
运行 7B 至少需要 8GB 内存,运行 13B 至少需要 16GB 内存。 步骤 3:使用模型如前所述,Ollama 支持通过各种各样的开源模型来完成不同的任务,下面就来看看怎么使用。
ollama run llava1.6 ログイン後にコピー Ollama 会使用你选择的模型来分析这张图片,并给你一些结果,比如图片的内容和分类,图片是否有修改,或者其他的分析等等(取决于所使用的模型)。 步骤 4:连接到 Ollama API我们不可能只通过命令行来使用,将应用程序连接到 Ollama API 是一个非常重要的步骤。这样就可以把 AI 的功能整合到自己的软件里,或者在 OpenAI Translator 和 NextChat 这类的前端工具中进行调用。 以下是如何连接和使用 Ollama API 的步骤:
1右击点击任务栏图标,选择「Quit Ollama」退出后台运行。 2使用 C:Windowssystem32rundll32.exe sysdm.cpl, EditEnvironmentVariables ログイン後にコピー 3要更改侦听地址和端口,可以添加以下环境变量:
只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的 要使用 IPv6,需要 Ollama 0.0.20 或更新版本。 4如果安装了多个模型,可以通过 5更改完之后,重新运行 Ollama。然后在浏览器中测试访问,验证更改是否成功。 6示例 API 调用: 要使用 Ollama API,可以在自己的程序里发送 HTTP 请求。下面是在「终端」里使用 curl http://192.168.100.10:8000/api/generate -d '{ "model": "gemma:7b", "prompt": "天空为什么是蓝色的?" }' ログイン後にコピー 返回响应的格式,目前只支持 Json 格式。 Ollama 的常用命令有:# 查看 Ollama 版本 ollama -v # 查看已安装的模型 ollama list # 删除指定模型 ollama rm [modelname] # 模型存储路径 # C:Users\.ollamamodels ログイン後にコピー 按照上述步骤,并参考命令示例,你可以在 Windows 上尽情体验 Ollama 的强大功能。不管是在命令行中直接下达指令,通过 API 将 AI 模型集成到你的软件当中,还是通过前端套壳,Ollama 的大门都已经为你敞开。 Ollama on Windows 的最佳实践要让 Ollama 在 Windows 上充分发挥最大潜力,需要注意以下几点最佳实践和技巧,这将帮助你优化性能并解决一些常见问题: Ollama のパフォーマンスを最適化する:
オラマに関するよくある質問インストールの問題
モデル読み込みエラー
Ollama API 接続の問題
このチュートリアルでは、Ollama のインストール、基本的なコマンドの実行、Ollama モデル ライブラリの使用、API を介した Ollama への接続など、Windows に Ollama をインストールして使用する方法を学びました。 Ollama を詳しく調べて、さまざまなモデルを試してみることをお勧めします。 Ollama には無限の可能性があり、それを使えばさらに多くのことを達成できます。 |
以上がOllama 上の Windows: 大規模言語モデル (LLM) をローカルで実行するための新しいツールの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。