Maison > Périphériques technologiques > IA > Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de l'IA.

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de l'IA.

WBOY
Libérer: 2024-02-01 10:30:10
avant
1424 Les gens l'ont consulté

"Je suis désormais convaincu à 100% que Miqu et Mistral-Medium sur Perplexity Labs sont le même modèle."

Récemment, une nouvelle concernant la "fuite du modèle Mistral-Medium" a attiré l'attention de tous.

Selon des rumeurs, des informations divulguées concernant un nouveau modèle appelé "Miqu" sont liées à EQ-Bench, une référence pour évaluer l'intelligence émotionnelle des modèles de langage. Selon les données pertinentes, la corrélation entre EQ-Bench et MMLU est d'environ 0,97 et la corrélation avec Arena Elo est d'environ 0,94. Fait intéressant, Miqu surpasse directement tous les grands modèles à l'exception du GPT-4 dans cette évaluation de référence, et son score est très proche de Mistral-Medium. Cette nouvelle a suscité une large attention et de nombreuses discussions.

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Source de l'image : https://x.com/N8Programs/status/1752441060133892503?s=20

Adresse open source : https://huggingface.co/miqudev/miqu-1-70b

Pour un modèle aussi puissant, l'éditeur du projet est une personne mystérieuse :

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Quelqu'un a demandé "qui t'a créé", Miqu s'est directement rapporté : "J'ai été créé par l'équipe Mistral Al."

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Quelqu'un a envoyé la même question test aux deux modèles, et les réponses reçues étaient toutes exprimées en russe. Le testeur a approfondi ses soupçons : "Il semble connaître le puzzle standard, mais si c'est un farceur, il est impossible de l'ajuster pour répondre en russe."

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Dans le processus de traduction, les expressions étaient presque les mêmes. .

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

D'où vient Miqu ? Est-ce vraiment du Mistral-Médium ?

Au cours de la discussion animée qui a duré deux jours, de nombreux développeurs ont comparé les deux modèles. Les résultats de la comparaison indiquent les possibilités suivantes :

1 Miqu est Mistral-Medium ; mais une première version expérimentale du MoE ou une autre version

3. Miqu est une version affinée de Llama2.

Plus tôt, nous avons présenté les raisons invoquées par les développeurs qui soutiennent la première possibilité. Au fur et à mesure que l'incident se déroulait, de plus en plus de développeurs se sont lancés dans des opérations de décryptage et ont mené des tests plus approfondis sur les deux modèles. Les tests effectués par un utilisateur de Reddit qui est resté éveillé tard ont montré que Miqu ressemble davantage à une première version du modèle MistralAI.

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.Le développeur a appliqué le modèle à quatre formations/examens professionnels en ligne sur la protection des données en langue allemande. Les données du test, les questions et toutes les instructions sont en allemand, tandis que les cartes de personnages sont en anglais. Cela teste les compétences en traduction et la compréhension multilingue.

La méthode de test spécifique est la suivante :

    Instruisez le modèle en allemand avant de fournir des informations : « Je vais vous donner quelques informations, veuillez faire attention à ces informations, mais lorsque vous répondez, utilisez simplement « OK » pour confirmer que vous comprenez, n'en dites pas plus. "Il s'agit de tester la capacité du modèle à comprendre et à exécuter des instructions.
  • Après avoir fourni toutes les informations sur le sujet, posez des questions au modèle. Il s'agit d'une question à choix multiples (A/B/C) dont la première et la dernière question sont les mêmes mais dont l'ordre des options et les lettres (X/Y/Z) sont modifiés. Chaque test contient 4 à 6 questions, pour un total de 18 questions à choix multiples.
  • Classé en fonction du nombre de réponses correctes données par le modèle, en considérant d'abord les réponses après que les informations sur le cours ont été fournies, et ensuite les réponses répondues aveuglément sans fournir d'informations à l'avance, en cas d'égalité. Tous les tests sont des unités indépendantes, le contexte est effacé entre chaque test et aucune mémoire ni état n'est conservé entre les sessions.
  • Le rapport de test détaillé est le suivant :

miqudev/miqu-1-70b GGUF Q5_K_M, contexte 32K, format Mistral : seules les bonnes réponses sont données pour 4+4+4+5=17/18 multiple- questions de choix. Sans information préalable, répondez simplement à la question et donnez la bonne réponse : 4+3+1+5=13/18. La saisie des données n'a pas été confirmée par "OK" comme indiqué.

Lors des tests, les développeurs ont découvert que Miqu présente de nombreuses similitudes avec Mixtral : une excellente orthographe et grammaire allemande bilingue ; l'ajout de traductions aux réponses ; l'ajout de notes et de commentaires aux réponses.

Cependant, dans le test de ce développeur, Miqu a obtenu des résultats moins bons que Mixtral-8x7B-Instruct-v0.1 (4 bits) et était toujours meilleur que Mistral Small et Medium. Mais ce n'est pas beaucoup mieux que Mixtral 8x7B Instruct. Le développeur spécule que Miqu pourrait être le modèle MistralAI divulgué, un modèle plus ancien, peut-être une preuve de concept.

Il s’agit du test le plus détaillé que nous ayons vu jusqu’à présent pour étayer la deuxième affirmation.

Cependant, certains développeurs pensent que Miqu n'a rien à voir avec MistralAI, mais ressemble davantage à Llama 70B, car son architecture est "exactement la même" que celle de Llama 70B et "n'est pas un modèle hybride expert".

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

De même, certaines personnes ont découvert après avoir testé que Miqu ressemble effectivement davantage à Llama :

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Mais à en juger par la différence de score, Miqu et Llama 70B ne sont évidemment pas le même modèle.

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Donc, quelqu'un a conclu que soit Miqu est une version affinée de Llama, soit une première version de Mistral-Medium :

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Si le premier est vrai, Miqu pourrait être Llama 70B affiné sur le Ensemble de données Mistral-Medium :

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Si ce dernier est vrai, Miqu n'est qu'une distillation de Mistral API, cela peut être une farce du niveau du "faux alunissage américain" :

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Dernière question, qui est le fuyard ?

Selon les indices fournis par de nombreux utilisateurs de la plateforme X, le modèle suspecté d'avoir fui a été initialement publié sur un site Web appelé 4chan. Ce site Web est un forum de messagerie en temps réel totalement anonyme où les utilisateurs peuvent publier des commentaires graphiques et textuels sans s'inscrire.

Mistral-Medium a fui accidentellement ? Ce modèle mystérieux qui figure sur la liste a suscité de nombreuses discussions au sein de la communauté de lIA.

Bien entendu, ces conclusions sont subjectives. Pour tous les chercheurs en IA, cette vague dramatique a besoin d’une « vérité » pour mettre fin.

Lien de référence : https://www.reddit.com/r/LocalLLaMA/comments/1af4fbg/llm_comparisontest_miqu170b/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:jiqizhixin.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal