Heim > Technologie-Peripheriegeräte > KI > MLC LLM: Ein Open-Source-KI-Chatbot, der den Offline-Betrieb unterstützt und für Computer und iPhones mit integrierten Grafikkarten geeignet ist.

MLC LLM: Ein Open-Source-KI-Chatbot, der den Offline-Betrieb unterstützt und für Computer und iPhones mit integrierten Grafikkarten geeignet ist.

王林
Freigeben: 2023-05-06 15:46:17
nach vorne
2061 Leute haben es durchsucht

开源 AI 聊天机器人 MLC LLM 发布:本地运行无需联网,集显电脑、苹果 iPhone 也能用

Neuigkeiten vom 2. Mai: Die meisten aktuellen KI-Chatbots müssen zur Verarbeitung mit der Cloud verbunden werden, und selbst diejenigen, die lokal ausgeführt werden können, haben extrem hohe Konfigurationsanforderungen. Gibt es also leichtgewichtige Chatbots, die keine Internetverbindung benötigen?

Ein neues Open-Source-Projekt namens MLC LLM wurde auf GitHub gestartet. Es läuft vollständig lokal, ohne dass eine Internetverbindung erforderlich ist. Es kann sogar auf alten Computern und Apple-Mobiltelefonen ausgeführt werden.

开源 AI 聊天机器人 MLC LLM 发布:本地运行无需联网,集显电脑、苹果 iPhone 也能用In der Einführung zum MLC LLM-Projekt heißt es: „MLC LLM ist eine universelle Lösung, die die lokale Bereitstellung jedes Sprachmodells auf einer Reihe verschiedener Hardware-Backends und nativer Anwendungen zusätzlich zu einem effizienten Framework ermöglicht, damit jeder das Modell weiter optimieren kann.“ Leistung für den eigenen Anwendungsfall. Alles läuft lokal, ohne Serverunterstützung, und wird durch lokale GPUs auf Mobiltelefonen und Laptops beschleunigt. Unsere Mission ist es, jedem die Möglichkeit zu geben, lokal zu entwickeln und zu optimieren ▲ Offizielle Demo des MLC LLM-Projekts

Auf der GitHub-Seite von IT House wurde festgestellt, dass die Entwickler dieses Projekts vom Catalyst Program der Carnegie Mellon University, der SAMPL Machine Learning Research Group und der Washington University, der Shanghai Jiao Tong University und OctoML usw. stammen. Sie haben auch ein Tool namens Web LLM. MLC ist die Abkürzung für Machine Learning Compilation. MLC LLM verwendet Vicuna-7B-V1.1, ein leichtes LLM, das auf Metas LLaMA basiert So gut wie GPT3.5 oder GPT4, ist es hinsichtlich der Größe vorteilhafter.

Derzeit ist MLC LLM für Windows-, Linux-, macOS- und iOS-Plattformen verfügbar. Für 开源 AI 聊天机器人 MLC LLM 发布:本地运行无需联网,集显电脑、苹果 iPhone 也能用Android

ist noch keine Version verfügbar.

Laut Tests der ausländischen Medien Tomshardware führten Apple

iPhone 14 Pro Max

und iPhone 12 Pro Max-Telefone mit 6 GB Speicher erfolgreich MLC LLM mit einer Installationsgröße von 3 GB aus. Das Apple iPhone 11 Pro Max mit 4 GB Speicher kann MLC LLM nicht ausführen.

开源 AI 聊天机器人 MLC LLM 发布:本地运行无需联网,集显电脑、苹果 iPhone 也能用

▲ Bildquelle tomshardware

Darüber hinaus wurde das ThinkPad X1 Carbon (6. Generation) auch erfolgreich mit MLC LLM getestet. Dies ist ein Notebook mit i7-8550U-Prozessor, keiner unabhängigen Grafikkarte und ausgestattet mit Intel UHD 620 GPU. MLC LLM muss über die Befehlszeile auf der PC-Plattform ausgeführt werden. Die Leistung des Fremdmedientests war durchschnittlich, die Reaktionszeit dauerte fast 30 Sekunden und ich hoffe, dass es in der Folge kaum eine Verbesserung gibt Versionen.

▲ Bildquelle tomshardwareMLC LLMs GitHub-Seite:

Klicken Sie hier, um es anzuzeigen

开源 AI 聊天机器人 MLC LLM 发布:本地运行无需联网,集显电脑、苹果 iPhone 也能用

Das obige ist der detaillierte Inhalt vonMLC LLM: Ein Open-Source-KI-Chatbot, der den Offline-Betrieb unterstützt und für Computer und iPhones mit integrierten Grafikkarten geeignet ist.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage