News du 30 mars, Elon Musk, PDG de Tesla, Steve Wozniak, co-fondateur d'Apple et 1 000 autres personnes ont récemment signé une lettre ouverte appelant à un moratoire sur la formation de systèmes d'IA plus puissants que GPT-4. BI, un média en ligne américain grand public, estime que, pour le bénéfice de l’ensemble de la société, le développement de l’IA doit ralentir.
Dans la lettre ouverte, Wozniak, Musk et d'autres ont demandé qu'à mesure que la technologie de l'IA devient de plus en plus puissante, des garde-fous de sécurité soient mis en place et que la formation de modèles d'IA plus avancés soit suspendue. Ils estiment que pour les modèles d'IA puissants comme le GPT-4 d'OpenAI, "ils ne devraient être développés que lorsque nous sommes convaincus que leur impact est positif et que les risques sont contrôlables".
Bien sûr, ce n’est pas la première fois que des gens réclament des garde-fous de sécurité pour l’IA. Cependant, à mesure que l’IA devient plus complexe et plus avancée, les appels à la prudence se multiplient.
James Grimmelmann, professeur de droit du numérique et de l'information à l'Université Cornell aux États-Unis, a déclaré : « Ralentir le développement de nouveaux modèles d'IA est une très bonne idée, car si l'IA finit par être bonne pour nous, alors il n'y a pas d'autre solution. mal en attendant quelques mois ou quelques années, nous arriverons au bout de toute façon et si c'est nuisible, alors nous nous gagnerons du temps supplémentaire pour trouver la meilleure façon d'y faire face et d'apprendre à le combattre. de ChatGPT souligne les dangers potentiels d'aller trop vite
Plus nous utilisons l'IA, notamment les outils dits d'intelligence artificielle générative (AIGC) comme ChatGPT ou l'outil de conversion texte en image Stable Diffusion, plus nous constatons ses lacunes, son potentiel de création de biais et la façon dont nous l’humanité impuissante semble utiliser son pouvoir. Hasan Chowdhury, rédacteur en chef de
BI, écrit que l’IA a le potentiel de « devenir un turbocompresseur, accélérant la propagation de nos erreurs ». Comme les réseaux sociaux, ils exploitent le meilleur et le pire de l’humanité. Mais contrairement aux médias sociaux, l’IA sera davantage intégrée dans la vie des gens.
ChatGPT et d'autres produits d'IA similaires ont déjà tendance à déformer les informations et à commettre des erreurs, ce dont Wozniak a parlé publiquement. Il est sujet à ce qu'on appelle des « hallucinations » (informations mensongères), et même le PDG d'OpenAI, Sam Altman, a admis que les modèles de l'entreprise peuvent produire des réponses raciales, sexistes et biaisées. Stable Diffusion a également rencontré des problèmes de droits d'auteur et a été accusé de s'inspirer du travail d'artistes numériques.
À mesure que l’IA est intégrée dans la technologie quotidienne, nous pourrions introduire davantage de désinformation dans le monde à plus grande échelle. Même les tâches qui semblent inoffensives pour une IA, comme aider à planifier des vacances, peuvent ne pas donner des résultats totalement fiables.
Il est difficile de développer la technologie de l'IA de manière responsable lorsque le marché libre exige un développement rapide
Bien que cette technologie ait créé une crise existentielle au sein de la main-d'œuvre, elle a également été saluée comme un outil d'égalisation pour l'industrie technologique. Rien ne prouve non plus que ChatGPT se prépare à mener une insurrection de robots dans les années à venir.
De nombreuses entreprises d'IA font appel à des éthiciens pour développer cette technologie de manière responsable. Mais si la précipitation d’un produit dépasse son impact social, les équipes concentrées sur la création d’IA en toute sécurité ne pourront pas accomplir leur travail en toute tranquillité.
La vitesse semble être un facteur incontournable dans cet engouement pour l’IA. OpenAI estime que si l'entreprise évolue suffisamment vite, elle peut repousser la concurrence et devenir un leader dans le domaine de l'AIGC. Cela a incité Microsoft, Google et presque toutes les autres entreprises à emboîter le pas.
Lancer des modèles d'IA puissants pour l'expérience publique avant qu'ils ne soient prêts n'améliore pas la technologie. Les meilleurs cas d’utilisation de l’IA n’ont pas encore été trouvés, car les développeurs doivent éliminer le bruit généré par la technologie qu’ils créent et les utilisateurs sont distraits par le bruit.
Tout le monde ne veut pas ralentir les choses
Emily M. Bender, professeur à l'Université de Washington, a déclaré sur Twitter que Musk et d'autres leaders technologiques du cycle de battage médiatique se concentrent uniquement sur la puissance de l'IA, plutôt que sur les dommages réels qu'elle peut causer.
Gerry Melman, professeur de droit du numérique et de l'information à l'Université Cornell, a ajouté que les dirigeants technologiques qui ont signé la lettre ouverte « arrivaient tardivement » et ouvraient une boîte de Pandore qui pourrait s'attirer des ennuis. Il a déclaré : "Maintenant qu'ils ont signé cette lettre, ils ne peuvent pas faire demi-tour et imposer la même politique sur d'autres technologies telles que les voitures autonomes.
Une pause dans le développement ou l'imposition de davantage de réglementations peuvent ou non." obtenir des résultats. Mais désormais, la conversation semble avoir tourné. L’IA existe depuis des décennies, nous pouvons peut-être attendre encore quelques années.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!