Maison > Périphériques technologiques > IA > Pour protéger la confidentialité des clients, exécutez localement des modèles d'IA open source à l'aide de Ruby

Pour protéger la confidentialité des clients, exécutez localement des modèles d'IA open source à l'aide de Ruby

王林
Libérer: 2024-03-18 21:40:03
avant
624 Les gens l'ont consulté

Traducteur | Chen Jun

Chonglou

Récemment, nous avons mis en œuvre un projet d'intelligence artificielle (IA) personnalisé. Étant donné que la partie A détient des informations client très sensibles, pour des raisons de sécurité, nous ne pouvons pas les transmettre à OpenAI ou à d'autres modèles propriétaires. Par conséquent, nous avons téléchargé et exécuté un modèle d'IA open source dans une machine virtuelle AWS, en le gardant entièrement sous notre contrôle. Dans le même temps, les applications Rails peuvent effectuer des appels API à l'IA dans un environnement sûr. Bien entendu, si des problèmes de sécurité ne doivent pas être pris en compte, nous préférerions coopérer directement avec OpenAI.

Pour protéger la confidentialité des clients, exécutez localement des modèles dIA open source à laide de Ruby

Ci-dessous, je vais partager avec vous comment télécharger le modèle d'IA open source localement, le laisser s'exécuter et comment exécuter le script Ruby dessus.

Pourquoi personnaliser ?

La motivation de ce projet est simple : la sécurité des données. Lors du traitement d’informations client sensibles, l’approche la plus fiable consiste généralement à le faire au sein de l’entreprise. Par conséquent, nous avons besoin de modèles d’IA personnalisés pour jouer un rôle en fournissant un niveau plus élevé de contrôle de sécurité et de protection de la vie privée.

Modèle Open source

Au cours des 6 derniers mois, de nouveaux produits sont apparus sur le marché tels que : Mistral, Mixtral et Lamaetc. Un grand nombre de modèles d'IA open source. Bien qu'ils ne soient pas aussi puissants que GPT-4, les performances de beaucoup d'entre eux ont dépassé GPT-3.5, et ils deviendront de plus en plus puissants au fil du temps. Bien entendu, le modèle que vous choisissez dépend entièrement de vos capacités de traitement et de ce que vous devez réaliser.

Étant donné que nous exécuterons le modèle d'IA localement, nous avons sélectionné le Mistral qui fait environ 4 Go. Il surpasse GPT-3.5 sur la plupart des métriques. Bien que Mixtral soit plus performant que Mistral, il s'agit d'un modèle volumineux qui nécessite au moins 48 Go de mémoire pour fonctionner.

Paramètres

Quand on parle de grands modèles de langage (LLM), nous avons tendance à penser à mentionner la taille de leurs paramètres. Ici, le modèle Mistral que nous exécuterons localement est un modèle de 7 milliards de paramètres (bien sûr, Mixtral a 700 milliards de paramètres, et GPT-3.5 Il y a environ 1750 milliards de paramètres).

En règle générale, les grands modèles de langage utilisent des techniques basées sur les réseaux neuronaux. Les réseaux de neurones sont constitués de neurones et chaque neurone est connecté à tous les autres neurones de la couche suivante.

Pour protéger la confidentialité des clients, exécutez localement des modèles dIA open source à laide de Ruby

Comme le montre l'image ci-dessus, chaque connexion a un poids, généralement exprimé en pourcentage. Chaque neurone possède également un biais qui corrige les données lorsqu’elles traversent un nœud.

Le but du réseau neuronal est « d'apprendre » un algorithme avancé, un algorithme de correspondance de modèles. En étant formé sur de grandes quantités de texte, il apprendra progressivement la capacité de prédire les modèles de texte et de répondre de manière significative aux signaux que nous lui donnons. En termes simples, les paramètres sont le nombre de poids et de biais dans le modèle. Cela nous donne une idée du nombre de neurones présents dans un réseau neuronal. Par exemple, pour un modèle de

7 milliards de paramètres, il y a environ 100 couches, chacune contenant des milliers de neurones. Exécutez le modèle localement

Pour exécuter le modèle open source localement, vous devez d'abord télécharger l'application appropriée. Bien qu'il existe de nombreuses options sur le marché, celle que je trouve la plus simple et la plus simple à exécuter sur Intel

Mac

est Ollama. Bien que

Ollama

ne fonctionne actuellement que sur Mac et Linux, il fonctionnera également sur Windows à l'avenir. Bien sûr, vous pouvez utiliser WSL (sous-système Windows pour Linux) pour exécuter Linux shell sur Windows.

Ollama vous permet non seulement de télécharger et d'exécuter divers modèles open source, mais ouvre également le modèle sur un port local, vous permettant de passer des appels API via le code Ruby. Cela permet aux développeurs Ruby d'écrire des applications Ruby qui peuvent être intégrées aux modèles locaux.

Obtenez ollama

puisque Olllama est principalement basé sur la ligne de commande, il est très simple d'installer Olllama sur les systèmes Mac et Linux. Il vous suffit de télécharger Ollama via le lien //m.sbmmt.com/link/04c7f37f2420f0532d7f0e062ff2d5b5, de consacrer environ 5 minutes pour installer le progiciel, puis d'exécuter le modèle.

Pour protéger la confidentialité des clients, exécutez localement des modèles dIA open source à laide de Ruby

Installation de votre premier modèle

Après avoir configuré et exécuté Ollama, vous verrez l'icône Ollama dans la barre des tâches de votre navigateur. Cela signifie qu'il s'exécute en arrière-plan et peut exécuter votre modèle. Pour télécharger le modèle, vous pouvez ouvrir un terminal et exécuter la commande suivante :

ollama run mistral
Copier après la connexion

Puisque Mistral a une taille d'environ 4 Go, cela vous prendra un certain temps pour terminer le téléchargement. Une fois le téléchargement terminé, il ouvrira automatiquement l'invite Ollama pour que vous puissiez interagir et communiquer avec Mistral.

Pour protéger la confidentialité des clients, exécutez localement des modèles dIA open source à laide de Ruby

La prochaine fois que vous exécuterez mistral via Ollama, vous pourrez exécuter directement le modèle correspondant.

Modèle personnalisé

Similaire à la façon dont nous créons un GPT personnalisé dans OpenAI, via Ollama, vous pouvez personnaliser le modèle de base. Ici, nous pouvons simplement créer un modèle personnalisé. Pour des cas plus détaillés, veuillez vous référer à la documentation en ligne d'Ollama.

Tout d'abord, vous pouvez créer un Modelfile (fichier modèle) et y ajouter le texte suivant :

FROM mistral# Set the temperature set the randomness or creativity of the responsePARAMETER temperature 0.3# Set the system messageSYSTEM ”””You are an excerpt Ruby developer. You will be asked questions about the Ruby Programminglanguage. You will provide an explanation along with code examples.”””
Copier après la connexion

Le message système qui apparaît ci-dessus est la base de la réponse spécifique de l'IA. modèle.

Ensuite, vous pouvez exécuter la commande suivante sur le terminal pour créer un nouveau modèle :

ollama create <model-name> -f './Modelfile</model-name>
Copier après la connexion

Dans notre cas de projet, j'ai nommé le modèle Ruby .

ollama create ruby -f './Modelfile'
Copier après la connexion

En même temps, vous pouvez utiliser la commande suivante pour lister et afficher vos modèles existants :

ollama list
Copier après la connexion

Pour protéger la confidentialité des clients, exécutez localement des modèles dIA open source à laide de Ruby

Vous pouvez maintenant utiliser la commande suivante pour exécuter le modèle personnalisé :

Ollama run ruby
Copier après la connexion

Intégré à Ruby

Bien qu'Ollama ne dispose pas encore de gem dédiée, les développeurs Ruby peuvent utiliser des méthodes de requête HTTP de base pour interagir avec les modèles. Ollama fonctionnant en arrière-plan peut ouvrir le modèle via le port 11434, vous pouvez donc y accéder via "//m.sbmmt.com/link/dcd3f83c96576c0fd437286a1ff6f1f0". De plus, la documentation de l'API OllamaAPI fournit également différents points de terminaison pour les commandes de base telles que les conversations de chat et la création d'intégrations.

Dans ce cas de projet, nous souhaitons utiliser le point de terminaison /api/chat pour envoyer des invites au modèle d'IA. L'image ci-dessous montre un Rubycode de base pour interagir avec le modèle :

Pour protéger la confidentialité des clients, exécutez localement des modèles dIA open source à laide de Ruby

Fonctionnalité de ce qui précède Rubyl'extrait de code comprend :

  1. net /http", "uri" et "json" trois bibliothèques exécutent respectivement les requêtes HTTP, analysent URI et traitent respectivement les données JSON.
  2. Créer contenant l'adresse APIdu point de terminaison (//m.sbmmt.com/link/dcd3f83c96576c0fd437286a1ff6f1f0/api/chat ) Objet URI.
  3. Utilisez la méthode Net::HTTP::Post.new avec URI comme paramètre pour créer une nouvelle requête HTTP POST.
  4. Le corps de la requête est défini sur une chaîne JSON représentant la valeur de hachage. Le hachage contient trois clés : "model", "message" et "stream". Parmi eux, la clé de modèle
  1. est définie sur "ruby", qui est notre modèle, la clé de message
  2. est définie sur un tableau, qui contient un seul haha ​​​​; représentant la valeur de hachage
  3. tandis que la clé de flux est définie sur false.
  4. Le système guide le modèle sur la manière de répondre aux informations. Nous l'avons déjà défini dans le Modelfile.
  5. Les informations utilisateur sont notre invite standard.
  6. Le modèle répondra avec des informations auxiliaires.
  1. Le hachage des messages suit un modèle qui recoupe les modèles d'IA. Il est livré avec un personnage et un contenu. Les rôles ici peuvent être Système, Utilisateur et Auxiliaire. Parmi eux, la requête
  2. HTTP est envoyée en utilisant la méthode Net::HTTP.start. Cette méthode ouvre une connexion réseau au nom d'hôte et au port spécifiés, puis envoie la demande. Le délai de lecture de la connexion est fixé à 120 secondes, après tout, j'utilise un 2019 IntelMac, donc la réponse peut être un peu lente. Ce ne sera pas un problème lors de l'exécution sur le serveur AWS correspondant.
  3. La réponse du serveur est stockée dans la variable "response".

Résumé du cas

Comme mentionné ci-dessus, la véritable valeur de l'exécution de modèles d'IA locaux est d'aider les entreprises qui détiennent des données sensibles, traitent des données non structurées telles que des e-mails ou des documents et extraient des informations structurées précieuses. . Dans le cas du projet auquel nous avons participé, nous avons effectué une formation modèle sur toutes les informations client dans le système de gestion de la relation client (CRM). À partir de là, les utilisateurs peuvent poser toutes les questions qu’ils ont sur leurs clients sans avoir à parcourir des centaines d’enregistrements.

Introduction du traducteur

Julian Chen, rédacteur de communauté 51CTO, a plus de dix ans d'expérience dans la mise en œuvre de projets informatiques, est doué pour contrôler les ressources et les risques internes et externes et se concentre sur la communication Connaissance et expérience en matière de sécurité des réseaux et de l’information.

Titre original : Comment exécuter des modèles d'IA open source localement avec Ruby, auteur : Kane Hooper

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal