Heim > Technologie-Peripheriegeräte > KI > Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten ab

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten ab

王林
Freigeben: 2024-04-26 10:19:21
nach vorne
1384 Leute haben es durchsucht

Übersicht

LLaMA-3 (Large Language Model Meta AI 3) ist ein groß angelegtes Open-Source-Modell für generative künstliche Intelligenz, das von Meta Company entwickelt wurde. Im Vergleich zur Vorgängergeneration LLaMA-2 gibt es keine wesentlichen Änderungen in der Modellstruktur.

Das LLaMA-3-Modell ist in verschiedene Maßstabsversionen unterteilt, darunter kleine, mittlere und große, um sich an unterschiedliche Anwendungsanforderungen und Rechenressourcen anzupassen. Die Parametergröße kleiner Modelle beträgt 8 B, die Parametergröße mittlerer Modelle beträgt 70 B und die Parametergröße großer Modelle erreicht 400 B. Während des Trainings besteht das Ziel jedoch darin, multimodale und mehrsprachige Funktionalität zu erreichen, und die Ergebnisse werden voraussichtlich mit GPT 4/GPT 4V vergleichbar sein.

Ollama installieren

Ollama ist ein Open-Source-LLM-Diensttool (Large Language Model), mit dem Benutzer große Sprachmodelle auf ihrem lokalen Computer ausführen und bereitstellen können. Ollama ist als Framework konzipiert, das den Prozess der Bereitstellung und Verwaltung großer Sprachmodelle in Docker-Containern vereinfacht und den Prozess schnell und einfach macht. Benutzer können über einfache Befehlszeilenoperationen schnell umfangreiche Open-Source-Sprachmodelle wie Llama 3 lokal ausführen.

Offizielle Website-Adresse: https://ollama.com/download

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abBilder

Ollama ist ein Tool, das mehrere Plattformen, einschließlich Mac und Linux, unterstützt und Docker-Images bereitstellt, um den Installationsprozess zu vereinfachen. Benutzer können weitere Modelle importieren und anpassen, indem sie eine Modelldatei schreiben, die der Rolle einer Docker-Datei ähnelt. Ollama bietet außerdem eine REST-API zum Ausführen und Verwalten von Modellen sowie ein Befehlszeilen-Toolset für die Modellinteraktion.

Ollama-Dienst-Startprotokoll

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abBilder

Modellverwaltung

Modell herunterladen

ollama pull llama3:8b
Nach dem Login kopieren

Der Standard-Download ist llama3:8b. Der Doppelpunkt vor dem Doppelpunkt stellt hier den Modellnamen dar, und der Doppelpunkt nach dem Tag stellt das Tag dar. Von hier aus können Sie alle Tags von llama3 anzeigen

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abBilder

Modelltests

Hinweis: Wenn Sie möchten, dass das Modell angezeigt wird Antwort auf Chinesisch, bitte zuerst eingeben: Hallo! Bitte antworten Sie auf Chinesisch.

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abBild

Open-WebUI konfigurieren. Unter CPU ausführen. 3000 für den Zugang

Bilder

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abSie müssen sich für den ersten Besuch registrieren. Hier registriere ich ein Konto, die Registrierung ist abgeschlossen und die Anmeldung ist erfolgreich

Lama3:8b-Modell herunterladen

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Nach dem Login kopieren

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abBilder

Download abgeschlossen

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abBilder

Verwenden

Modell auswählen

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abBilder

Verwenden. Modell

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten abBilder

Hinweis: Wenn Sie möchten, dass das Modell antwortet auf Chinesisch. Bitte geben Sie zuerst ein: Hallo! Bitte antworten Sie auf Chinesisch

Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten ab

Das obige ist der detaillierte Inhalt vonDocker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten ab. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage