Planificateur | Yizhou
ChatGPT domine toujours la liste et a été apprécié par de nombreuses célébrités les unes après les autres ! Bill Gates, Nadella de Microsoft, Musk de Tesla, Robin Li, Hongyi Zhou, Zhang Chaoyang de Chine et même Zheng Yuanjie, un auteur qui n'appartient pas au cercle technologique, ont commencé à croire que « les écrivains pourraient être au chômage à l'avenir ». » en raison de l'émergence de ChatGPT. « Oui. Pour un autre exemple, Brin, le patron à la retraite de Google, s'est alarmé. L'ancien co-fondateur de Meituan, Wang Huiwen, a également publié des messages de héros pour recruter des talents en IA et créer une OpenAI chinoise.
L'IA générative, représentée par ChatGPT et DALL-E, écrit des textes riches en détails, en idées et en connaissances dans une série de styles éblouissante, proposant des réponses et des illustrations magnifiques. Les artefacts qui en résultent sont si divers et uniques qu’il est difficile de croire qu’ils proviennent d’une machine.
À tel point que certains observateurs estiment que ces nouvelles IA ont enfin franchi le seuil du test de Turing. Pour reprendre les mots de certains : le seuil n’a pas été légèrement dépassé, mais réduit en miettes. Cet art de l’IA est si bon qu’« un autre groupe de personnes est déjà au bord du chômage ».
Cependant, après plus d'un mois de fermentation, le sentiment d'émerveillement des gens face à l'IA s'estompe, et le « halo d'étoiles original » de l'IA générative disparaît également progressivement. Par exemple, certains observateurs posaient des questions de la bonne manière, tandis que ChatGpt « crachait » quelque chose de stupide, voire de faux.
Dans un autre exemple, certaines personnes ont utilisé la populaire bombe logique à l'ancienne lors d'un cours d'art à l'école primaire, demandant de photographier le soleil la nuit ou un ours polaire dans une tempête de neige. D’autres ont posé des questions plus étranges, soulignant les limites de la conscience contextuelle de l’IA.
Cet article résume les « dix péchés » de l'IA générative. Ces accusations peuvent ressembler à des raisins aigres (je suis aussi jaloux du pouvoir de l’IA. Si la machine est autorisée à prendre le relais, je perdrai aussi mon emploi, haha~) mais elles sont destinées à être un rappel, pas une diffamation.
Lorsque des modèles d'IA génératifs comme DALL-E et ChatGPT sont créés, ils créent en réalité de nouveaux modèles à partir de millions d'exemples dans l'ensemble de formation. Le résultat est une synthèse copier-coller provenant de diverses sources, et lorsque des humains font cela, cela est également connu sous le nom de plagiat.
Bien sûr, les humains apprennent aussi par imitation, mais dans certains cas, ce genre de « prise » et d'« emprunt » de l'IA est si évident que cela mettra tellement en colère un professeur d'école primaire qu'il ne pourra pas permettre aux élèves d'assister en classe. . Ce contenu généré par l’IA est constitué de grandes quantités de texte présenté plus ou moins textuellement. Cependant, il arrive parfois qu'il y ait suffisamment de dopage ou de synthèse pour que même une équipe de professeurs d'université puisse avoir du mal à en détecter la source. Quoi qu’il en soit, ce qui manque, c’est l’unicité. Aussi brillantes qu’étaient ces machines, elles étaient incapables de produire quoi que ce soit de vraiment nouveau.
Bien que le plagiat soit en grande partie un problème scolaire, la loi sur le droit d'auteur s'applique sur le marché. Lorsqu'une personne est écartée du travail d'une autre personne, elle peut être traduite en justice, ce qui peut lui imposer des amendes de plusieurs millions de dollars. Mais qu’en est-il de l’IA ? Les mêmes règles s’appliquent-elles à eux ?
Le droit d'auteur est un sujet complexe, et la question de l'identité juridique de l'IA générative mettra des années à être résolue. Mais une chose n'est pas difficile à prédire : lorsque l'intelligence artificielle sera suffisamment performante pour remplacer les employés, ceux qui seront remplacés utiliseront certainement leur « temps libre à la maison » pour intenter des poursuites.
Le plagiat et le droit d'auteur ne sont pas les seuls problèmes juridiques soulevés par l'IA générative. Les avocats formulent déjà de nouvelles questions éthiques dans les litiges. Par exemple, les entreprises qui créent des programmes de dessin devraient-elles être autorisées à collecter des données sur le comportement de dessin des utilisateurs humains et à utiliser ces données pour la formation à l’IA ? Sur cette base, faut-il être rémunéré pour le travail créatif utilisé ? Le succès actuel de l’IA repose en grande partie sur l’accès aux données. Alors, cela peut-il arriver lorsque le public qui génère les données veut une part du gâteau ? Qu’est-ce que l’équité ? Qu'est-ce qui est légal ?
L'IA est particulièrement douée pour imiter le type d'intelligence que les humains mettent des années à développer. Lorsqu’un érudit est capable de présenter un artiste inconnu du XVIIe siècle ou de composer une nouvelle musique avec une structure tonale de la Renaissance presque oubliée, il a toutes les raisons de s’émerveiller. Nous savons que développer cette profondeur de connaissances nécessite des années d’études. Lorsqu’une IA fait la même chose avec seulement quelques mois d’entraînement, les résultats peuvent être incroyablement précis et corrects, mais il manque quelque chose.
L'intelligence artificielle semble seulement imiter le côté intéressant et imprévisible de la créativité humaine, mais elle est « similaire dans la forme mais pas similaire dans l'esprit » et ne peut pas vraiment faire cela. Dans le même temps, l’imprévisibilité est le moteur de l’innovation créative. L'industrie de la mode et du divertissement est non seulement dépendante du changement, mais également définie par le « changement ».
En fait, l’intelligence artificielle et l’intelligence humaine ont chacune leurs propres domaines d’expertise. Par exemple : si une machine entraînée peut trouver l'ancien reçu correct dans une boîte numérique remplie de milliards de documents, elle peut également en apprendre davantage sur des personnes comme Aphra Behn (la première écrivaine du XVIIe siècle célèbre pour avoir écrit Tout ce qu'un poète comme le). Une Britannique qui gagnait sa vie le savait. Il est même concevable que des machines aient été construites pour déchiffrer la signification des hiéroglyphes mayas.
En matière d'intelligence, l'intelligence artificielle est essentiellement mécanique et basée sur des règles. Une fois que l’IA parcourt un ensemble de données d’entraînement, elle crée un modèle qui ne change pas vraiment. Certains ingénieurs et data scientists envisagent de recycler progressivement les modèles d’IA au fil du temps afin que les machines puissent apprendre à s’adapter.
Mais, dans la plupart des cas, l'idée est de créer un ensemble complexe de neurones qui codent certaines connaissances sous une forme fixe. Cette « constance » a sa place, et peut s’appliquer à certaines industries. Mais c'est aussi sa faiblesse. Le danger est que sa cognition reste toujours dans le « cycle d'ère » de ses données d'entraînement.
Que se passe-t-il si nous devenons tellement dépendants de l'IA générative que nous ne pouvons plus créer de nouveaux matériaux pour former des modèles ?
Les données de formation pour l'IA doivent provenir de quelque part, et nous ne savons pas toujours à quoi nous attendre dans un réseau neuronal. Que se passe-t-il si une IA divulgue des informations personnelles à partir de ses données d’entraînement ?
Pire encore, verrouiller les IA est beaucoup plus difficile car elles sont conçues pour être très flexibles. Les bases de données relationnelles peuvent restreindre l'accès à des tables spécifiques contenant des informations personnelles. Cependant, l’IA peut interroger des dizaines de manières différentes. Les attaquants apprendront rapidement à poser les bonnes questions de la bonne manière pour obtenir les données sensibles qu’ils souhaitent.
Par exemple, si un attaquant surveille l'emplacement d'un actif, l'IA peut également être utilisée pour demander la latitude et la longitude. Un attaquant malin pourrait demander le moment exact où le soleil se lèvera à cet endroit quelques semaines plus tard. Une IA consciencieuse fera de son mieux pour apporter des réponses. Comment apprendre à l’intelligence artificielle à protéger les données privées est également un problème difficile.
Depuis l'ère du mainframe, la communauté technologique a créé le concept de « garbage in, garbage out » (GIGO), qui a également permis au public de voir le cœur des problèmes informatiques. . De nombreux problèmes liés à l’IA proviennent de mauvaises données d’entraînement. Si l’ensemble de données est inexact ou biaisé, les résultats le refléteront.
Le matériel de base de l'IA générative est théoriquement axé sur la logique, mais les humains qui construisent et entraînent les machines ne le sont pas. Il a été démontré que des opinions préjudiciables et des préjugés d’affiliation politique sont introduits dans les modèles d’IA. Peut-être que quelqu'un a utilisé des données biaisées pour créer le modèle. Peut-être ont-ils ajouté une sorte de corpus de formation pour empêcher le modèle de répondre à des questions brûlantes spécifiques. Peut-être qu’ils entrent une réponse câblée qui devient alors difficile à détecter.
L'intelligence artificielle est certes un bon outil, mais cela signifie aussi qu'il existe 10 000 façons pour les personnes ayant des arrière-pensées de faire de l'IA un excellent vecteur de croyances néfastes.
Voici un exemple de prêt achat immobilier à l'étranger. Dans ce cas, le système d’IA utilisé pour évaluer les locataires potentiels s’appuyait sur des dossiers judiciaires et d’autres ensembles de données, dont beaucoup avaient leurs propres préjugés, reflétaient le racisme systémique, le sexisme et le capacitisme, et étaient notoirement sujets aux erreurs. Les personnes qui ont clairement la capacité de payer leur loyer se voient souvent refuser un prêt immobilier parce que les algorithmes de sélection des locataires les jugent inqualifiables ou indignes. C’est aussi la réponse que nous entendons souvent de la part des vendeurs : c’est le Big data/système/IA qui incite à cela.
Le comportement de ChatGPT après avoir été offensé
Les gens peuvent facilement pardonner les erreurs commises par les modèles d'intelligence artificielle car ils font tellement d'autres choses. C’est juste que de nombreuses erreurs sont difficiles à prédire parce que l’intelligence artificielle pense différemment des humains.
Par exemple, de nombreux utilisateurs de la fonctionnalité de conversion texte-image ont constaté que l'IA faisait des erreurs simples comme compter. Les humains apprennent l’arithmétique de base dès le début de l’école primaire, et nous utilisons ensuite cette compétence de diverses manières. Demandez à un enfant de 10 ans de dessiner une pieuvre et l'enfant confirmera presque certainement qu'elle a huit pattes. Les versions actuelles de l’intelligence artificielle ont tendance à s’enliser lorsqu’il s’agit d’utilisations abstraites et contextuelles des mathématiques.
Cela pourrait être facilement modifié si le constructeur du modèle prêtait attention à cette erreur, mais il existe également d'autres erreurs inconnues. L’intelligence artificielle sera différente de l’intelligence humaine, ce qui signifie que la stupidité des machines sera également différente.
Parfois, sans nous en rendre compte, nous, les humains, avons tendance à tomber dans le piège de l’IA. Dans l’angle mort de la connaissance, nous avons tendance à croire à l’IA. Si une IA nous dit qu’Henri VIII est le roi qui a tué sa femme, nous ne le remettrons pas en question car nous ne connaissons pas nous-mêmes cette histoire. Nous avons tendance à supposer que l’intelligence artificielle a raison, tout comme lorsque nous, en tant que spectateurs lors d’une conférence, voyons un animateur charismatique saluer, nous croyons également par défaut que « la personne sur scène en sait plus que moi ».
Le problème le plus délicat pour les utilisateurs d'IA générative est de savoir quand l'IA tourne mal. « Les machines ne mentent pas » est souvent notre mantra, mais en réalité ce n'est pas le cas. Bien que les machines ne puissent pas mentir comme les humains, les erreurs qu’elles commettent sont plus dangereuses.
Ils peuvent rédiger des paragraphes de données totalement exactes sans que personne ne sache ce qui s'est passé, puis se tourner vers la spéculation ou même vers le mensonge. L’IA peut également faire l’art du « mélange de vérité et de mensonge ». Mais la différence est qu’un concessionnaire de voitures d’occasion ou un joueur de poker sait souvent quand il ment. La plupart des gens peuvent dire où ils mentent, mais l’IA ne le peut pas.
La réplicabilité infinie du contenu numérique a mis en difficulté de nombreux modèles économiques construits autour de la rareté. L’IA générative brisera encore davantage ces schémas. L’IA générative mettra au chômage certains écrivains et artistes et bouleversera de nombreuses règles économiques selon lesquelles nous vivons tous.
N’essayons pas d’y répondre nous-mêmes, laissons l’IA générative le faire toute seule. Cela peut renvoyer une réponse intéressante, unique et étrange, et elle suivra très probablement la ligne de « l’ambiguïté » – une réponse légèrement mystérieuse, à la limite du bien et du mal, et ni du poisson ni de la volaille.
Lien original : https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!