Maison > Périphériques technologiques > IA > le corps du texte

Ancien PDG de Google : L'IA est comme les armes nucléaires. Les grands pays doivent établir une « dissuasion de l'IA » pour garantir une destruction mutuelle.

WBOY
Libérer: 2023-04-10 09:31:02
avant
1266 Les gens l'ont consulté

​L'ancien PDG de Google, Eric Schmidt, a comparé l'intelligence artificielle aux armes nucléaires dans une interview et a appelé à un mécanisme similaire de dissuasion de destruction mutuellement assuré pour empêcher les pays les plus puissants du monde de s'entre-détruire à cause de l'IA.

La Destruction Mutuellement Assurée (mécanisme M.A.D en abrégé, également connu sous le nom de principe de destruction mutuelle) est une idée de la nature « tout détruit ». Si l’une des deux parties adverses l’utilise pleinement, les deux parties seront détruites, ce qu’on appelle « l’équilibre de la terreur ».

Schmidt a comparé l'IA aux armes nucléaires, affirmant que la Chine et les États-Unis pourraient conclure à l'avenir un traité similaire à l'interdiction des « essais nucléaires » pour empêcher l'IA de détruire le monde.

Schmidt : J'étais très jeune et naïf à l'époque

Le 22 juillet, Schmidt a parlé du développement de l'intelligence artificielle lors de la réunion du panel sur la sécurité nationale et l'intelligence artificielle du Forum sur la sécurité d'Aspen.

En réponse à une question sur les valeurs éthiques dans la technologie, Schmidt a expliqué qu'il était lui-même naïf quant au pouvoir de l'information aux débuts de Google.

Il a ensuite appelé à ce que la technologie soit mieux alignée sur la morale et l’éthique de ceux qu’elle sert, et a fait une étrange comparaison entre l’intelligence artificielle et les armes nucléaires.

Schmidt estime que dans un avenir proche, la Chine et les États-Unis devront signer des traités sur l'intelligence artificielle.

Schmidt a déclaré : « Dans les années 1950 et 1960, nous nous sommes retrouvés avec une règle « prévisible » concernant les essais nucléaires, et les essais nucléaires ont finalement été interdits.

Schmidt estime que « c'est un exemple d'équilibre entre les deux ». confiance ou manque de confiance, c'est une règle de « pas de surprise ». Il est très inquiet que quelque chose commence entre les deux puissances de l'IA, les États-Unis et la Chine, à cause de certains malentendus et malentendus, conduisant au déclenchement d'événements dangereux. .

Schmidt a déclaré que personne ne fait actuellement de recherche dans ce domaine, mais l'intelligence artificielle est si puissante.

Eric Schmidt a été PDG de Google de 2001 à 2011, président exécutif de Google de 2011 à 2015 et président exécutif d'Alphabet de 2015 à 2017, de 2017 à 2020. A été conseiller technique d'Alphabet.

Ancien PDG de Google : LIA est comme les armes nucléaires. Les grands pays doivent établir une « dissuasion de lIA » pour garantir une destruction mutuelle.

En 2008, alors qu'il était président de Google, Schmidt a fait campagne pour Barack Obama et a ensuite siégé au Conseil consultatif scientifique et technologique du président Obama avec Eric Lander (Conseil des conseillers en science et technologie).

De 2019 à 2021, Schmidt a coprésidé la Commission de sécurité nationale sur l'IA avec Robert O. Work.

Ancien PDG de Google : LIA est comme les armes nucléaires. Les grands pays doivent établir une « dissuasion de lIA » pour garantir une destruction mutuelle.

L'IA est-elle vraiment si dangereuse ?

L'intelligence artificielle et l'apprentissage automatique sont une technologie impressionnante mais souvent mal comprise. Pour la plupart, ce n’est pas aussi intelligent qu’on le pense.

Il peut produire des œuvres d'art de niveau chef-d'œuvre, battre les humains dans "StarCraft 2" et peut également passer des appels téléphoniques de base pour les utilisateurs. Cependant, essayer de le laisser accomplir des tâches plus complexes, telles que la conduite autonome, n'a pas fait beaucoup de progrès. .

Schmidt envisage que dans un avenir proche, la Chine et les États-Unis seront préoccupés par les questions de sécurité, obligeant les deux parties à conclure une sorte de traité de dissuasion sur l'intelligence artificielle.

Il a parlé des années 1950 et 1960, lorsque les pays utilisaient la diplomatie pour orchestrer une série de contrôles sur les armes les plus meurtrières au monde. Mais il faudrait des décennies d’explosions nucléaires pour que le monde parvienne au point où le Traité d’interdiction des essais nucléaires, ainsi que SALT II et d’autres lois historiques, comme les explosions nucléaires d’Hiroshima et de Nagasaki, seraient promulgués.

Les États-Unis ont détruit deux villes japonaises avec des armes nucléaires à la fin de la Seconde Guerre mondiale, tuant des milliers de personnes et prouvant au monde l'horreur éternelle des armes nucléaires.

Par la suite, l'Union soviétique et la Chine ont également développé avec succès des armes nucléaires, puis est née la destruction mutuelle assurée (MAD), une théorie de dissuasion qui maintient une « balance des dangers » pour garantir que si un pays lance une arme nucléaire, d'autres pays sont également susceptibles de le lancer.

Jusqu’à présent, l’humanité s’est abstenue d’utiliser les armes les plus destructrices de la planète, car cela pourrait détruire la civilisation à travers le monde.

L'intelligence artificielle a-t-elle actuellement un tel pouvoir ?

Maintenant, il semble que l'intelligence artificielle ne se soit pas révélée aussi destructrice que les armes nucléaires, mais de nombreuses personnes au pouvoir ont peur de cette nouvelle technologie. Certains suggèrent même de confier le contrôle des armes nucléaires à l'intelligence artificielle. est plus puissant que les humains. Mieux vaut servir d'arbitre de l'utilisation des armes nucléaires.

Alors peut-être que le problème avec l'IA n'est pas qu'elle a le pouvoir potentiel de destruction du monde des armes nucléaires, l'IA est aussi bonne que ses concepteurs et ils reflètent les valeurs de leurs créateurs.

L'intelligence artificielle a le problème classique du « déchets à l'intérieur, déchets à l'extérieur » Les algorithmes racistes donnent naissance à des robots racistes, et l'intelligence artificielle produira également des préjugés.

Le PDG de DeepMind, Demis Hassabis, comprend cela mieux que Schmidt.

DeepMind a formé une IA capable de vaincre les joueurs de Starcraft II. Dans une interview de juillet sur le podcast Lex Fridman, Fridman a demandé à Hassabis comment contrôler une technologie aussi puissante que l'IA et comment Hassabis lui-même évitait d'être corrompu par un tel pouvoir.

Réponse de Hassabis : « L’IA est une idée trop grande », a-t-il déclaré, « Ce qui compte, c’est qui a créé (l’intelligence artificielle), de quelle culture ils viennent, quelles valeurs ils ont, qu’ils soient l’IA. Le constructeur du système . Le système d'IA apprendra tout seul... mais la culture et les valeurs du créateur du système resteront dans le système."

L'intelligence artificielle est le reflet de son créateur, 1,2 million de tonnes. Une super explosion. ne peut raser une ville à moins que les humains ne lui apprennent à le faire.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!