> 기술 주변기기 > 일체 포함 > Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.

王林
풀어 주다: 2024-04-26 10:19:21
앞으로
1383명이 탐색했습니다.

Overview

LLaMA-3(Large Language Model Meta AI 3)은 Meta Company에서 개발한 대규모 오픈소스 생성 인공지능 모델입니다. 이전 세대 LLaMA-2에 비해 모델 구조에는 큰 변화가 없습니다.

LLaMA-3 모델은 다양한 애플리케이션 요구 사항과 컴퓨팅 리소스에 맞게 소형, 중형, 대형을 포함한 다양한 규모 버전으로 구분됩니다. 소형 모델의 모수 크기는 8B, 중형 모델의 모수 크기는 70B, 대형 모델의 모수 크기는 400B에 이릅니다. 그러나 훈련 중에는 다중 모달 및 다중 언어 기능을 달성하는 것이 목표이며 결과는 GPT 4/GPT 4V와 비슷할 것으로 예상됩니다.

Ollama 설치

Ollama는 사용자가 로컬 컴퓨터에서 대규모 언어 모델을 실행하고 배포할 수 있는 오픈 소스 LLM(대형 언어 모델) 서비스 도구입니다. Ollama는 Docker 컨테이너에서 대규모 언어 모델을 배포하고 관리하는 프로세스를 단순화하여 프로세스를 빠르고 쉽게 만드는 프레임워크로 설계되었습니다. 사용자는 간단한 명령줄 작업을 통해 Llama 3와 같은 오픈 소스 대규모 언어 모델을 로컬에서 빠르게 실행할 수 있습니다.

공식 웹사이트 주소: https://ollama.com/download

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.Pictures

Ollama는 Mac 및 Linux를 포함한 다양한 플랫폼을 지원하는 도구이며 Docker 이미지를 제공하여 설치 프로세스를 단순화합니다. 사용자는 Dockerfile의 역할과 유사한 Modelfile을 작성하여 더 많은 모델을 가져오고 사용자 지정할 수 있습니다. Ollama는 또한 모델 실행 및 관리를 위한 REST API와 모델 상호 작용을 위한 명령줄 도구 세트를 제공합니다.

Ollama 서비스 시작 로그

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.사진

모델 관리

모델 다운로드

ollama pull llama3:8b
로그인 후 복사

기본 다운로드는 llama3:8b입니다. 여기에서 콜론 앞의 콜론은 모델 이름을 나타내고, 태그 뒤의 콜론은 태그를 나타냅니다. 여기에서 llama3의 모든 태그를 볼 수 있습니다

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.pictures

모델 테스트

참고: 모델이 원하는 경우 중국어로 답장하려면 먼저 입력하세요: 안녕하세요! 중국어로 답장해주세요

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.picture

Open-WebUI 구성

CPU에서 실행

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
로그인 후 복사

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.picture

Visit

주소를 입력하세요. http://127.0.0.1:3000

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.사진

처음 방문하려면 등록해야 합니다. 여기서 계정을 등록하면 등록이 완료되고 로그인이 완료됩니다.

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.사진

중국어 전환

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.사진

llama3:8b 모델 다운로드

llama3:8b
로그인 후 복사

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.사진

다운로드 완료

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.사진

사용

모델 선택

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.사진

모델 사용

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다. Pictures

참고: 모델의 답장을 원하는 경우 중국어로 먼저 입력해주세요: 안녕하세요! 중국어로 답장해주세요

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.Pictures

Memory

Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다. Pictures

위 내용은 Docker는 3분 만에 LLama3 오픈 소스 대규모 모델의 로컬 배포를 완료합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿