Il existe un écosystème croissant de modèles linguistiques open source qui fournit aux individus des ressources complètes pour créer des applications linguistiques à des fins de recherche et commerciales.
Cet article approfondit GPT4ALL, qui va au-delà des cas d'utilisation spécifiques en fournissant des éléments de base complets qui permettent à quiconque de développer des chatbots de type ChatGPT.
GPT4ALL peut fournir tout le support nécessaire lors de l'utilisation de grands modèles de langage open source de pointe. Il peut accéder à des modèles et des ensembles de données open source, les entraîner et les exécuter à l'aide du code fourni, interagir avec eux à l'aide d'une interface Web ou d'une application de bureau, se connecter au backend Langchain pour l'informatique distribuée et utiliser l'API Python pour une intégration facile.
Les développeurs ont récemment lancé le chatbot GPT4All-J sous licence Apache-2, qui est formé sur un corpus vaste et organisé d'interactions avec les assistants, notamment des questions de mots, des conversations à plusieurs tours, du code, de la poésie, des chansons et des histoires. Pour le rendre plus accessible, ils ont également publié des liaisons Python et une interface utilisateur de chat, permettant à presque tout le monde d'exécuter le modèle sur un processeur.
Vous pouvez l'essayer vous-même en installant un client de chat local sur votre bureau.
Après cela, exécutez le programme GPT4ALL et téléchargez le modèle de votre choix. Vous pouvez également télécharger manuellement le modèle ici (https://github.com/nomic-ai/gpt4all-chat#manual-download-of-models) et l'installer à l'emplacement indiqué par la boîte de dialogue de téléchargement du modèle dans l'interface graphique.
L'utilisation de GPT4ALL offre une meilleure expérience sur votre ordinateur portable, obtenant des réponses rapides et précises. Même les personnes non techniques peuvent facilement utiliser GPT4ALL car il est très convivial.
GPT4ALL possède Python, TypeScript, une interface Web Chat et un backend Langchain.
Dans cette section, nous examinerons l'API Python pour accéder aux modèles à l'aide de nomic-ai/pygpt4all.
<code>pip install pygpt4all</code>
<code>from pygpt4all.models.gpt4all import GPT4Alldef new_text_callback(text):print(text, end="")model = GPT4All("./models/ggml-gpt4all-l13b-snoozy.bin")model.generate("Once upon a time, ", n_predict=55, new_text_callback=new_text_callback)</code>
De plus, les convertisseurs peuvent être utilisés pour télécharger et exécuter des inférences. Fournissez simplement le nom du modèle et la version. Les exemples de cet article accèdent au dernier modèle amélioré v1.3-groovy.
<code>from transformers import AutoModelForCausalLMmodel = AutoModelForCausalLM.from_pretrained("nomic-ai/gpt4all-j", revisinotallow="v1.3-groovy")</code>
Dans le référentiel nomic-ai/gpt4all, vous pouvez obtenir du code source, des poids de modèle, des ensembles de données et de la documentation pour la formation et l'inférence. Vous pouvez d'abord essayer certains modèles, puis les intégrer à l'aide du client Python ou de LangChain.
GPT4ALL nous fournit un point de contrôle du modèle GPT4All quantifié par le CPU. Pour y accéder il faut :
Linux : cd chat;./gpt4all-lora-quantized-linux- x86
Vous pouvez également vous rendre sur Hugging Face Spaces et essayer la démo de Gpt4all.
Photos de Gpt4all
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!