Maison > Périphériques technologiques > IA > le corps du texte

Qui peut créer une version chinoise de ChatGPT ? Comment faire ?

王林
Libérer: 2023-04-11 19:40:09
avant
928 Les gens l'ont consulté

En décembre 2022, ChatGPT est né. OpenAI a changé le paradigme de la recherche scientifique et des applications d'ingénierie avec un résultat comparable à celui d'une bombe nucléaire. En Chine, ChatGPT a reçu une large attention et de profondes discussions. Au cours du mois dernier, j'ai visité de grandes universités, des instituts de recherche, de grandes usines, des start-ups et des sociétés de capital-risque, de Pékin à Shanghai, en passant par Hangzhou et Shenzhen, et j'ai discuté avec tous les principaux acteurs. Le jeu d'échelle a déjà commencé en Chine. Comment les acteurs au centre de la tempête peuvent-ils y parvenir étant donné l'énorme écart entre la technologie et l'écologie nationales et l'avant-garde mondiale ? Qui peut faire ça ?

Qin a perdu son cerf et le monde entier l'a chassé. ———— "Documents historiques·Biographies du marquis de Huaiyin"

Table des matières

Qui peut créer une version chinoise de ChatGPT ? Comment faire ?

1. Trois réponses différentes

Chaque fois que j'entre en contact avec une startup, je demanderai au même question : « Où est ChatGPT ? Que veux-tu faire ? » J'ai probablement reçu trois réponses différentes. La première réponse est claire : construire le ChatGPT chinois.

1.1 Créer le ChatGPT chinois

Parce qu'il est là, je veux le reproduire et le localiser. Il s'agit d'une pensée Internet chinoise très classique axée sur les produits. Cette idée est également un modèle commercial courant de l’Internet chinois au cours des deux dernières décennies : d’abord, la Silicon Valley fabrique quelque chose, puis nous le copions.

Mais le problème ici est que, tout d'abord, ChatGPT n'est pas comme un logiciel d'appel de taxi, et la difficulté de reproduction est complètement différente. D'un point de vue humain, la création de GPT est le résultat de recherches continues menées par les meilleurs scientifiques et ingénieurs du monde depuis 2015. Le scientifique en chef d'OpenAI, Ilya Sutskever[1], croit profondément que l'AGI peut être atteint. En tant que disciple de Geoffery Hinton, lauréat du prix Turing, il étudie l'apprentissage profond depuis 2007. Il compte 370 000 citations et les articles qu’il a publiés touchent avec précision tous les nœuds clés du Deep Learning au cours des dix dernières années. Même avec une équipe aussi solide, il a fallu quatre ans pour passer du GPT 2 au GPT 3.5. On peut imaginer la difficulté de sa science et de son ingénierie.

En même temps, la première génération de ChatGPT est une démo créée par OpenAI basée sur le modèle de base de GPT 3.5. Après passé deux semaines à peaufiner le dialogue , elle a été rejetée . La véritable force ici n’est pas le produit ChatGPT, mais le modèle de base sous-jacent GPT 3.5. Ce modèle est toujours en évolution. La série GPT 3.5 a été mise à jour avec trois versions majeures en 2022[2], chaque version majeure est nettement plus puissante que la version précédente, de même, ChatGPT a été mis à jour avec un total de quatre mises à jour en deux ; mois après sa sortie. Chaque petite version présente des améliorations évidentes par rapport à la version précédente dans une seule dimension. Tous les modèles OpenAI évoluent constamment et se renforcent au fil du temps.

Cela signifie que si vous vous concentrez uniquement sur le produit actuel ChatGPT,

revient à essayer de trouver une épée. Lorsque ChatGPT est apparu, cela a porté un coup dur à la réduction de dimensionnalité des assistants vocaux existants si vous ne pouvez pas voir l'évolution du modèle de base, même si vous passez un an ou deux à travailler dur pour créer quelque chose de similaire, le fondement d'OpenAI à cette époque ; Les modèles continuent également à devenir plus forts. S'ils continuent à produire et à peaufiner un produit plus solide avec un nouveau modèle de base plus solide, seront-ils à nouveau touchés par une réduction de dimensionnalité ?

L'approche consistant à sculpter un bateau et à chercher une épée ne fonctionnera pas.

1.2 Devenir l'OpenAI de la Chine

La deuxième réponse est d'être l'OpenAI de la Chine. Le joueur qui a donné cette réponse est sorti de la pensée classique du produit Internet chinois. Ils ont non seulement vu un produit unique, mais ont également vu la puissante force motrice de l'évolution continue du modèle de base derrière ce produit, qui vient de la densité des talents de pointe et de la structure organisationnelle avancée.

  • Densité de talents de pointe : Il ne s'agit pas d'une seule personne qui met en commun ses ressources pour diriger une équipe, puis de regrouper et d'attribuer des tâches aux personnes en dessous de manière hiérarchique, mais d'un groupe de personnes de haut niveau qui combiner la science et l’ingénierie pour travailler ensemble.
  • Structure organisationnelle avancée : L'équipe linguistique et l'équipe d'alignement coopèrent entre elles pour itérer, puis l'équipe de mise à l'échelle et l'équipe de données aident à fournir l'infrastructure. Chaque équipe est très petite, mais a des objectifs clairs, des chemins clairs et des ressources à haute concentration, évoluant vers AGI

Donc, si vous voulez faire cela, vous devez non seulement voir le produit, mais aussi l'équipe de talents et la structure organisationnelle derrière lui, classées par rareté,  ; Personnes>> Carte >> Argent .

Mais le problème ici est que différents sols encouragent l'innovation à des degrés différents. Lors de la création d’OpenAI en 2015, ses investisseurs croyaient en AGI, même si aucun profit n’avait été constaté à l’époque. Maintenant que le GPT a été développé, les investisseurs nationaux ont également cru en l'AGI, mais leurs convictions peuvent être différentes : Croyez-vous que l'AGI peut rapporter de l'argent, ou pensez-vous que l'AGI peut promouvoir le développement humain ?

De plus, même si OpenAI est né ici et apparaîtra demain, l'accord conclu avec Microsoft peut-il être conclu avec les fabricants nationaux de cloud computing ? La formation et l'inférence de grands modèles nécessitent des coûts énormes et nécessitent un moteur de cloud computing comme support. Microsoft peut consacrer tous ses efforts pour permettre à l'ensemble d'Azure d'aider OpenAI[4] Si cela change en Chine, est-il possible pour Alibaba Cloud d'aider une startup ?

La structure organisationnelle est très importante. Seuls des talents de pointe et des structures organisationnelles avancées peuvent favoriser l'itération et l'évolution continues de l'intelligence, mais elle doit également s'adapter au sol où elle se trouve et trouver les moyens de s'épanouir.

1.3 Explorez les limites de l'intelligence

La troisième réponse est d'

explorer les limites de l'intelligence. C'est la meilleure réponse que j'ai entendue. Cela va bien au-delà de la conception classique des produits Internet consistant à rechercher une épée à chaque instant. Il voit également l'importance de la structure organisationnelle et de la densité des talents de pointe, et réfléchit. sur la façon d'intégrer les choses les plus profondes et les plus profondes. Les problèmes difficiles sont résolus avec les approches les plus innovantes.

Cela implique une réflexion extrême dans la réflexion sur les grands modèles.

2. Réflexion extrême

En observant le ChatGPT / GPT-3.5 actuel, il s'agit évidemment d'un état intermédiaire. Il comporte encore de nombreux points qui peuvent être considérablement améliorés et peuvent être améliorés immédiatement, notamment :

  • Boîte de saisie plus longue : Au début, le contexte de GPT 3.5 atteignait 8 000 jetons ; maintenant, la longueur de la modélisation du contexte ChatGPT semble avoir dépassé 10 000. Et cette longueur peut évidemment continuer à croître. Après avoir incorporé les méthodes d'attention efficace[5] et d'encodage récursif[6], la longueur du contexte devrait pouvoir s'étendre jusqu'à cent mille, voire un million de longueurs
  • . Des modèles plus gros, des données plus grandes : La taille du modèle n'a pas encore atteint la limite, et le MoE peut continuer à faire évoluer le modèle à l'ordre de T[7] ; atteint la limite, et les données renvoyées par les humains chaque jour Tout en croissance
  • Multi-modal : Après avoir ajouté des données multimodales (audio, images), notamment des données vidéo, la taille de l'ensemble et l'entraînement les données peuvent être augmentées de deux ordres de grandeur. Les capacités connues peuvent alors augmenter linéairement selon la loi d'échelle, et en même temps, de nouvelles capacités émergentes peuvent continuer à apparaître. Par exemple, le modèle peut automatiquement apprendre à faire de la géométrie analytique après avoir vu des images de diverses formes géométriques et problèmes d'algèbre.
  • Spécialisation : Le modèle existant est à peu près équivalent au niveau des études supérieures en arts libéraux, mais est équivalent au niveau du lycée ou des étudiants de première ou de deuxième année en sciences. Les travaux existants ont prouvé que nous pouvons mettre le niveau ; modèle Les points de compétence sont déplacés d'une direction à l'autre, ce qui signifie que même sans aucune mise à l'échelle, nous pouvons toujours pousser le modèle dans la direction cible en sacrifiant d'autres capacités. Par exemple, les capacités scientifiques du modèle sont sacrifiées et ses capacités en arts libéraux sont poussées du niveau d'étudiant diplômé au niveau de professeur expert.

Les quatre points ci-dessus ne peuvent être vus qu'à ce stade. Ils peuvent être renforcés immédiatement, mais aucun point n'a encore été renforcé. Au fil du temps et de l'évolution du modèle, d'autres dimensions pourront l'être. reflété en outre par l'échelle. Cela signifie que nous devons réfléchir de manière extrême et réfléchir à ce à quoi ressemblera le modèle lorsque nous remplirons toutes les dimensions pouvant être remplies.

2.1 peut tout remplir

La zone de saisie du modèle peut continuer à être allongée, la taille du modèle peut continuer à augmenter, les données du modèle peuvent continuer à augmenter, les données multimodales peut être fusionné, et le degré de spécialisation du modèle peut continuer à augmenter, et toutes ces dimensions peuvent continuer à être tirées vers le haut. Le modèle n'a pas encore atteint sa limite. La limite est un processus. Comment les capacités du modèle vont-elles se développer au cours de ce processus ?

  • Courbe log-linéaire : La croissance de certaines capacités suivra la courbe log-linéaire[8], comme le réglage fin d'une certaine tâche. À mesure que les données de réglage fin augmentent de façon exponentielle, les capacités des tâches de réglage fin correspondant au modèle augmenteront de manière linéaire. Comme on pouvait s'y attendre, cette partie de la capacité deviendra plus forte
  • Courbe de changement de phase : Certaines capacités continueront d'émerger avec la mise à l'échelle[9], par exemple, le modèle ci-dessus fait de la géométrie analytique. À mesure que les dimensions pouvant être remplies continuent de l’être, de nouvelles capacités émergentes et imprévisibles apparaîtront.
  • Courbe polynomiale ? Lorsque le modèle sera suffisamment solide pour être aligné sur les humains dans une certaine mesure, peut-être que la croissance linéaire de certaines capacités et des données requises brisera le blocus de la croissance exponentielle et sera réduite à l'ordre des polynômes. En d'autres termes, lorsque le modèle est puissant dans une certaine mesure, il peut ne pas avoir besoin de données exponentielles, mais uniquement de données au niveau polynomial pour compléter la généralisation. Cela peut être observé à partir de l’apprentissage professionnel humain : lorsqu’une personne n’est pas un expert dans un domaine, elle a besoin de quantités exponentielles de données pour acquérir des connaissances dans un domaine ; lorsqu’une personne est déjà un expert dans un domaine, elle n’a besoin que d’une très petite quantité de données ; Les données. Le niveau de données fait jaillir à lui seul de nouvelles inspirations et connaissances.

Ainsi, après une réflexion extrême, si toutes les dimensions qui peuvent être remplies sont remplies, le modèle est destiné à devenir de plus en plus fort, avec de plus en plus de capacités émergentes.

2.2 Inverser le processus intermédiaire

Après avoir réfléchi clairement au processus limite, vous pouvez inverser le processus intermédiaire à partir de l'état limite. Par exemple, si nous voulons augmenter la taille de la zone de saisie :

  • Si vous souhaitez augmenter la zone de saisie du modèle de mille à million, il vous suffira peut-être d'augmenter le nombre de cartes graphiques , cela peut être réalisé en optimisant la mémoire vidéo. Si vous souhaitez continuer à augmenter la zone de saisie de la magnitude de
  • 10 000 à la magnitude de 100 000, vous aurez peut-être besoin de attention linéaire [10], car l'ajout de mémoire vidéo à ce moment ne devrait pas être en mesure de prendre en charge l'augmentation quadratique du volume de calcul de l'attention avec la longueur de la zone de saisie.
    Si vous souhaitez continuer à augmenter la zone de saisie de cent mille à un million, vous aurez peut-être besoin de la méthode
  • encodage récursif [11] et augmenter méthode de mémoire à long terme [12], car à l'heure actuelle, l'attention linéaire n'est peut-être pas en mesure de soutenir la croissance de la mémoire vidéo. De cette façon, nous pouvons déduire quelles technologies sont nécessaires pour la mise à l'échelle à différentes étapes. L'analyse ci-dessus s'applique non seulement à la longueur de la zone de saisie, mais s'applique également au processus de mise à l'échelle d'autres facteurs.

De cette façon, nous pouvons obtenir une

feuille de route technique claire pour chaque étape intermédiaire

de la technologie actuelle jusqu'à la limite de mise à l'échelle. 2.3 Productisation selon le processus d'évolution du modèle

Les modèles évoluent constamment, mais la productisation n'a pas besoin d'attendre que le modèle final soit terminé - chaque fois qu'une grande version du modèle est itérée, elle peut être produit. Prenons l'exemple du processus de productisation d'OpenAI :

En 2020, la formation GPT 3 de première génération a été achevée et l'API OpenAI a été ouverte

[13]
  • En 2021, la première génération La formation Codex est terminée et Github Copilot a été ouvert[14]
  • En 2022, la formation GPT-3.5 est terminée, affinez les données de dialogue dans ChatGPT puis publiez-les
  • On peut voir que dans Chaque version importante au stade intermédiaire, les capacités du modèle seront améliorées et il y aura des opportunités de production.

Plus important encore, en suivant le processus d'évolution du modèle et en le produisant, vous pouvez vous adapter au marché pendant la phase de production. Apprenez la structure organisationnelle d'OpenAI pour promouvoir l'évolution du modèle lui-même, mais la production peut être basée sur les caractéristiques du marché local. Cette approche peut nous permettre de tirer des leçons de l’expérience avancée d’OpenAI tout en évitant le problème de l’acclimatation.

3. Le point auquel l'intelligence artificielle dépasse considérablement les humains

Jusqu'à présent, nous avons discuté de la nécessité d'analyser le modèle du point de vue de son évolution et d'utiliser une réflexion extrême pour discuter de l'évolution du modèle. Les points qui peuvent être immédiatement améliorés à ce stade incluent la longueur de la zone de saisie, des modèles et des données plus grands, des données multimodales et le degré de spécialisation du modèle. Adoptons maintenant une vision à plus long terme et réfléchissons à la manière dont le modèle peut être poussé plus loin dans ses limites dans un espace et un temps plus vastes. On discute :

  • Perception parallèle : C'est déjà la limite pour un chercheur humain de lire quatre ou cinq articles séquentiellement à la fois, mais une fois que la zone de saisie du modèle s'allonge, cent articles peuvent être lus en parallèle de manière très peu de temps. Cela signifie que la capacité du modèle à percevoir les informations externes dépasse de loin celle des humains d’un ordre de grandeur.
  • Héritage de la mémoire : Dans le processus d'évolution humaine, la progéniture n'hérite que des gènes du parent, mais pas de la mémoire du parent, ce qui signifie que chaque reproduction doit être redémarrée dans le processus d'évolution ; dans le modèle In , la progéniture peut hériter de la mémoire du parent, et le degré de cet héritage est contrôlable : nous pouvons configurer la progéniture pour qu'elle hérite de 100 %, 50 %, 20 % de la mémoire, ou effacer la mémoire, ce qui signifie que l'expérience et les compétences du parent peuvent Accumulation continue
  • Temps d'accélération : La vitesse à laquelle les humains communiquent entre eux est limitée par la vitesse physique de la parole humaine et la vitesse à laquelle les modèles communiquent entre eux peut être beaucoup plus rapide que les humains, ce qui signifie que les modèles peuvent résoudre des problèmes en communiquant entre eux. Le problème de la croissance linéaire des données humaines avec le temps, le processus d'évolution humaine est limité par le temps physique, et l'évolution des modèles peut être de plusieurs ordres ; magnitude plus rapide que le temps physique humain, ce qui signifie que la progression des modèles peut être beaucoup plus rapide que celle des humains
  • Vie infinie : La vie d'une personne est limitée et finira par se transformer en poussière après cent ans, mais tant que le poids du modèle n'est pas perdu, il peut continuer à évoluer

De ce point de vue, l'intelligence artificielle dépassant les humains n'est pas une chose inimaginable. Cela nous amène à la question suivante : Comment contrôler une intelligence artificielle forte qui dépasse de loin les humains ?

Ce problème est ce que la technologie d'alignement veut vraiment résoudre.

4. Alignement

Au stade actuel, les capacités du modèle, sauf qu'AlphaGo surpasse les humains les plus forts en Go, les autres IA n'ont pas dépassé les humains les plus forts (mais ChatGPT a peut-être surpassé les humains les plus forts en arts libéraux) 95 % de l'humanité, et elle continue de croître). Lorsque le modèle n'a pas dépassé les humains, la tâche d'Alignement est de rendre le modèle conforme aux valeurs et aux attentes humaines, mais une fois que le modèle continue d'évoluer pour dépasser les humains, la tâche d'Alignement consiste à trouver des moyens de contrôler les agents intelligents qui dépassent de loin les humains. les humains.

4.1 L'alignement comme méthode pour contrôler des agents intelligents bien au-delà des humains

Une question évidente est la suivante : une fois que l'IA a dépassé les humains, peut-elle encore être rendue plus forte/plus contrainte grâce au feedback humain ? Est-ce hors de contrôle à ce stade ?

Pas forcément. Même si le modèle est de loin supérieur aux humains, on peut quand même le contrôler. Un exemple ici est la relation entre athlètes et entraîneurs : les athlètes médaillés d'or sont déjà les humains les plus forts dans leur direction. , mais cela ne veut pas dire que l'entraîneur ne peut pas le former. Au contraire, même si l’entraîneur n’est pas aussi bon que l’athlète, il peut quand même rendre l’athlète plus fort et plus discipliné grâce à divers mécanismes de rétroaction.

De même, la relation entre les humains et une intelligence artificielle forte peut devenir la relation entre les athlètes et les entraîneurs aux stades intermédiaires et ultérieurs du développement de l'IA. À l'heure actuelle, la capacité dont les humains ont besoin n'est pas d'atteindre un objectif , mais de fixer un bon objectif , puis de mesurer si la machine a suffisamment bien atteint l'objectif et de donner des suggestions d'amélioration.

Les recherches dans ce sens sont encore très préliminaires. Le nom de cette nouvelle discipline s'appelle Scalable Oversight[15]

4.2 Alignement et structure organisationnelle

Sur la voie d'un artificiel fort. En matière d'intelligence, non seulement les humains et l'IA doivent être alignés, mais les humains et les humains ont également besoin d'un haut degré d'alignement. Du point de vue de la structure organisationnelle, l'alignement implique :

  • Alignement entre l'équipe de pré-formation et l'équipe de réglage des instructions - alignement  : Les deux doivent être un processus itératif mutuel. L'équipe de pré-formation met continuellement à l'échelle le modèle de base, et l'équipe d'alignement effectue le réglage des instructions pour le modèle de base, lors de l'utilisation Les résultats obtenus orientent à l'envers la direction de l'équipe de pré-formation.
  • Alignement entre l'équipe de pré-entraînement/alignement et l'équipe de mise à l'échelle/données : Scaling est responsable de la préparation de l'infrastructure pour le pré-entraînement/alignement, et les données sont responsables de la préparation des données de haute qualité et des données de feedback humain.
  • Alignement des startups et des VC : L'AGI est une chose difficile qui nécessite un investissement à long terme, ce qui nécessite que les gens de tous les aspects aient suffisamment de patience et une vision suffisamment élevée. La logique consistant à brûler de l’argent chaud puis à catalyser la production puis à occuper le marché ne devrait plus exister à l’ère des grands modèles. Les jeux à grand modèle exigent que leurs joueurs aient une vision et une structure suffisamment élevées. L'évolution du modèle permettra aux personnes suffisamment patientes et travaillant dur d'obtenir de riches récompenses à long terme, et fera également des personnes qui ne regardent que le jeu. la poursuite à court terme est à maintes reprises trahie par une attaque de réduction de dimensionnalité.

5. Conclusion

En 2017, lorsque je suis entré pour la première fois dans l'industrie de la PNL, j'ai consacré beaucoup d'efforts à la génération contrôlable. À cette époque, le soi-disant transfert de style de texte consistait à changer la classification des sentiments de la phrase. Changer le bon en mauvais était considéré comme un transfert complet. En 2018, j'ai passé beaucoup de temps à étudier comment laisser le modèle modifier le style des phrases du point de vue de la structure des phrases. J'ai un jour pensé à tort que la conversion de style était presque impossible à réaliser. ChatGPT rend désormais la conversion de style très simple. Des tâches qui semblaient autrefois impossibles, des choses qui étaient autrefois extrêmement difficiles, peuvent désormais être accomplies très facilement grâce à de grands modèles de langage. Tout au long de 2022, j'ai suivi toutes les itérations des versions de GPT-3 à GPT-3.5[11], et j'ai vu de mes propres yeux son évolution continue de faible à forte, étape par étape. Ce rythme d’évolution ne ralentit pas, mais s’accélère. Ce qui ressemblait autrefois à de la science-fiction est désormais devenu réalité. Qui sait ce que l’avenir nous réserve ?

Le mil est séparé, les plants de riz poussent. Le rythme est lent et timide, et le centre tremble.

Le mil est séparé, les épis du grain sont séparés. En avançant à grands pas, le centre est comme une ivresse.

———— "Le Livre des Chansons·Mili"

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!