Maison > Périphériques technologiques > IA > le corps du texte

Concernant la réglementation de l'IA, Musk continue de « brandir le drapeau » et Sunak lance également un avertissement !

王林
Libérer: 2023-11-03 14:37:09
avant
607 Les gens l'ont consulté

Jeudi, le premier sommet mondial sur la sécurité de l'intelligence artificielle s'est terminé au Royaume-Uni. Le dialogue entre Musk et le Premier ministre britannique Sunak sur l'IA a attiré l'attention de l'industrie

.

En cela, Musk a une fois de plus souligné l'importance de renforcer la réglementation de l'IA, et Sunak a également averti que l'IA pourrait entraîner des risques similaires à ceux d'une guerre nucléaire

Supervision IA

Dans la conversation entre les deux, Musk a décrit l'intelligence artificielle comme « la force la plus perturbatrice de l'histoire » et a déclaré que nous finirons par « avoir quelque chose de plus intelligent que l'être humain le plus intelligent ».

Dans le même temps, il a également comparé l'intelligence artificielle à une « épée à double tranchant ». Selon lui, cette technologie a au moins 80 % de chances d'être bénéfique à l'humanité et 20 % de chances d'être dangereuse. Elle pourrait devenir l'une des « plus grandes menaces » auxquelles l'humanité est confrontée.

« L’intelligence artificielle a le potentiel d’être une force positive, mais son potentiel négatif n’est pas nul. »
En ce qui concerne la manière dont l’intelligence artificielle affectera le travail, Musk prédit que la main-d’œuvre humaine sera éliminée.

"Un jour, nous allons Aucun travaux à prévoir. Si vous voulez un emploi qui réponde à vos besoins personnels, vous pouvez trouver un emploi, mais l’IA sera capable de tout faire. "
"Il n'est pas clair si cela mettra les gens à l'aise, et l'un des défis à venir sera de trouver un sens à la vie."
Musk a récemment exprimé un nouveau point de vue sur la réglementation. Il estime : « Même si la réglementation est effectivement ennuyeuse, au fil des années, nous avons appris que l'arbitrage est une bonne chose

.

Il a suggéré d'établir une organisation neutre d'« arbitre tiers » pour superviser les activités de développement des sociétés d'IA afin de découvrir rapidement les tendances d'activité et les problèmes potentiels des principales sociétés d'IA

Développer des règles réglementaires efficaces en matière d'intelligence artificielle nécessite une compréhension approfondie de son développement, il ne s'inquiète donc pas de formuler prématurément des règles pertinentes sans une compréhension suffisante

Interrogé sur ce que les gouvernements devraient faire pour « gérer et atténuer » les risques de l'IA, Musk a confirmé la nécessité d'une intervention gouvernementale et a déclaré qu'il n'était pas d'accord avec « une réglementation inférieure à 1 % ».

Musk a passé la dernière décennie à avertir que l’intelligence artificielle pourrait constituer une menace existentielle pour l’humanité. Alors que la tendance à l'intelligence artificielle se répand à travers le monde, Musk a annoncé en juillet de cette année qu'il formait une équipe xAI visant à « comprendre la réalité ». Il a dit un jour : « Du point de vue de la sécurité de l'intelligence artificielle, une intelligence artificielle dotée de la plus grande curiosité et essayant de comprendre l'univers sera bénéfique à l'humanité

.

Musk et Sunak ont ​​convenu que des « interrupteurs » physiques pourraient être nécessaires pour empêcher les robots de perdre le contrôle de manière dangereuse, faisant référence à la série « Terminator » et à d'autres films de science-fiction. Sunak a déclaré : "Tous ces films avec la même intrigue se terminent par l'arrêt des gens

."

Lors de la réunion, Sunak a également averti que l'IA pourrait entraîner des risques pour l'humanité d'une ampleur comparable à une guerre nucléaire. Il s’inquiète des risques que les modèles avancés d’IA font peser sur le public.

"Les personnes qui développent cette technologie ont souligné les risques que l'IA peut engendrer, et il est important de ne pas être trop alarmiste à ce sujet. Il existe une controverse sur ce sujet. Les acteurs de l'industrie ne sont pas unanimes sur ce point et nous ne pouvons pas en être sûrs. "
"Mais il y a des raisons de croire que cela pourrait présenter des risques à l'échelle d'une pandémie et d'une guerre nucléaire, c'est pourquoi, en tant que dirigeants, nous avons la responsabilité d'agir et de prendre des mesures pour protéger les gens, et c'est exactement ce que nous faisons"
"Déclaration de Bletchley"

La veille, lors du sommet sur la sécurité de l'intelligence artificielle, le gouvernement britannique a annoncé la « Déclaration de Bletchley ».

Le premier accord mondial sur l’intelligence artificielle a été signé et approuvé par des représentants de 28 pays et régions, dont la Chine, l’Inde, les États-Unis et l’Union européenne. L'accord vise à répondre aux risques auxquels les modèles d'intelligence artificielle de pointe pourraient être confrontés en cas de perte de contrôle et d'abus, et prévient que l'intelligence artificielle peut causer des dommages « catastrophiques »

Concernant la réglementation de lIA, Musk continue de « brandir le drapeau » et Sunak lance également un avertissement !

Le manifeste de l’IA déclare qu’elle apporte d’énormes opportunités au monde. L’IA a le potentiel de transformer ou d’améliorer le bien-être, la paix et la prospérité de l’humanité. Dans le même temps, l’IA présente également des risques importants, même dans la vie quotidienne

"Tous les problèmes sont critiques et nous reconnaissons la nécessité et l'urgence de les résoudre."
De nombreux risques posés par l’IA sont de nature internationale et il est donc préférable de les gérer par la coopération internationale

"Pour y parvenir, nous affirmons que l'IA doit être conçue, développée, déployée et utilisée de manière sûre, centrée sur l'humain, digne de confiance et responsable, pour le bénéfice de tous."
La déclaration indique que toutes les parties impliquées sont encouragées à élaborer des plans adaptés au contexte et à assurer la transparence et la responsabilité des capacités potentiellement nuisibles et des éventuels impacts associés. Surtout pour éviter l'expansion des problèmes d'abus et de contrôle et d'autres risques

Dans le contexte de la coopération, la déclaration se concentre sur deux points principaux : 1. Identifier les risques de sécurité de l'IA d'intérêt commun, construire une « compréhension épistémique » scientifique et fondée sur des preuves, et maintenir cette compréhension à mesure que les capacités continuent d'augmenter. une approche globale plus large de l’impact de l’IA sur notre société.

2. Les pays devraient formuler des politiques basées sur les risques et coopérer les uns avec les autres. « Pour faire avancer ce programme, nous sommes déterminés à soutenir un réseau international inclusif de recherche scientifique de pointe sur la sécurité de l’IA afin d’approfondir la compréhension des risques et des capacités de l’IA qui ne sont pas encore entièrement compris

.

Il est rapporté que le prochain Sommet sur la sécurité de l'intelligence artificielle sera organisé par la Corée du Sud et la France en 2024.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:sohu.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!