LLaMA-3 (Large Language Model Meta AI 3) ist ein groß angelegtes Open-Source-Modell für generative künstliche Intelligenz, das von Meta Company entwickelt wurde. Im Vergleich zur Vorgängergeneration LLaMA-2 gibt es keine wesentlichen Änderungen in der Modellstruktur.
Das LLaMA-3-Modell ist in verschiedene Maßstabsversionen unterteilt, darunter kleine, mittlere und große, um sich an unterschiedliche Anwendungsanforderungen und Rechenressourcen anzupassen. Die Parametergröße kleiner Modelle beträgt 8 B, die Parametergröße mittlerer Modelle beträgt 70 B und die Parametergröße großer Modelle erreicht 400 B. Während des Trainings besteht das Ziel jedoch darin, multimodale und mehrsprachige Funktionalität zu erreichen, und die Ergebnisse werden voraussichtlich mit GPT 4/GPT 4V vergleichbar sein.
Ollama ist ein Open-Source-LLM-Diensttool (Large Language Model), mit dem Benutzer große Sprachmodelle auf ihrem lokalen Computer ausführen und bereitstellen können. Ollama ist als Framework konzipiert, das den Prozess der Bereitstellung und Verwaltung großer Sprachmodelle in Docker-Containern vereinfacht und den Prozess schnell und einfach macht. Benutzer können über einfache Befehlszeilenoperationen schnell umfangreiche Open-Source-Sprachmodelle wie Llama 3 lokal ausführen.
Offizielle Website-Adresse: https://ollama.com/download
Bilder
Ollama ist ein Tool, das mehrere Plattformen, einschließlich Mac und Linux, unterstützt und Docker-Images bereitstellt, um den Installationsprozess zu vereinfachen. Benutzer können weitere Modelle importieren und anpassen, indem sie eine Modelldatei schreiben, die der Rolle einer Docker-Datei ähnelt. Ollama bietet außerdem eine REST-API zum Ausführen und Verwalten von Modellen sowie ein Befehlszeilen-Toolset für die Modellinteraktion.
Bilder
ollama pull llama3:8b
Der Standard-Download ist llama3:8b. Der Doppelpunkt vor dem Doppelpunkt stellt hier den Modellnamen dar, und der Doppelpunkt nach dem Tag stellt das Tag dar. Von hier aus können Sie alle Tags von llama3 anzeigen
Bilder
Hinweis: Wenn Sie möchten, dass das Modell angezeigt wird Antwort auf Chinesisch, bitte zuerst eingeben: Hallo! Bitte antworten Sie auf Chinesisch.
Bild
Sie müssen sich für den ersten Besuch registrieren. Hier registriere ich ein Konto, die Registrierung ist abgeschlossen und die Anmeldung ist erfolgreich
Lama3:8b-Modell herunterladendocker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Bilder
Download abgeschlossen
Bilder
Modell auswählen
Bilder
Verwenden. Modell
Bilder
Hinweis: Wenn Sie möchten, dass das Modell antwortet auf Chinesisch. Bitte geben Sie zuerst ein: Hallo! Bitte antworten Sie auf Chinesisch
Das obige ist der detaillierte Inhalt vonDocker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten ab. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!