Concernant la question des risques liés à l’IA, les gros bonnets de tous horizons ont également des opinions différentes. Quelqu’un a pris l’initiative de signer une lettre commune appelant les laboratoires d’IA à suspendre immédiatement leurs recherches. Les trois géants du deep learning, Geoffrey Hinton, Yoshua Bengio, etc., soutiennent tous ce point de vue.
Ces derniers jours, Bengio, Hinton et d'autres ont publié une lettre commune « Gérer les risques liés à l'intelligence artificielle à l'ère du développement rapide », appelant les chercheurs à prendre des mesures de gouvernance d'urgence et à mettre en œuvre la sécurité et l'éthique avant de développer des systèmes d'IA Incorporate. points clés et appellent les gouvernements à prendre des mesures pour gérer les risques posés par l’IA.
L'article mentionnait certaines mesures de gouvernance d'urgence, telles que l'implication des institutions nationales pour empêcher les gens d'abuser de l'IA. Pour parvenir à une réglementation efficace, les gouvernements doivent avoir une compréhension globale des développements de l’IA. Les régulateurs devraient prendre une série de mesures, telles que l'enregistrement des modèles, la protection efficace des lanceurs d'alerte et la surveillance du développement des modèles et de l'utilisation des superordinateurs. Les régulateurs auront également besoin d’accéder à des systèmes d’IA avancés avant leur déploiement pour évaluer leurs capacités dangereuses.
En mai de cette année, une organisation américaine à but non lucratif, le Center for the Safety of Artificial Intelligence, a publié une déclaration avertissant que l'intelligence artificielle devrait être considérée comme un risque d'extinction pour l'humanité, au même titre qu'une épidémie. La déclaration a été soutenue par certains, dont Hinton et Bengio. Non seulement cela, mais en remontant un peu plus loin, en mai de cette année, le Center for the Security of Artificial Intelligence, une organisation américaine à but non lucratif, a publié une déclaration avertissant que l'intelligence artificielle devrait être considérée comme présentant le même risque d'anéantissement de l'humanité. que les épidémies, et les mêmes personnes qui ont soutenu cette déclaration, dont Hinton, Bengio et d'autres
En mai de cette année, Hinton a démissionné de son poste chez Google afin de pouvoir discuter librement des risques posés par l'intelligence artificielle. Dans une interview accordée au New York Times, il a déclaré : « La plupart des gens pensent que les méfaits de l'intelligence artificielle sont encore loin. Je le pensais aussi, et cela pourrait prendre 30 à 50 ans, voire plus. Mais maintenant, mon la pensée a changé. ”
De l’avis des magnats de l’IA comme Hinton, gérer les risques apportés par l’intelligence artificielle est une tâche urgente
Cependant, Yann LeCun, en tant que l’une des figures importantes dans le domaine de l’intelligence artificielle, apprentissage, Soyez optimiste quant au développement de l’intelligence artificielle. Il s'oppose à la signature d'une lettre commune sur les risques de l'intelligence artificielle et estime que le développement de l'intelligence artificielle ne constitue pas une menace pour les êtres humains.
Tout à l'heure, dans la communication avec les utilisateurs de X, LeCun a posé quelques questions aux internautes. sur les risques de l’IA. Une réponse a été donnée.
L'internaute a demandé quel était le point de vue de LeCun sur l'article "'C'est son changement climatique' : les experts aident Rishi Sunak à sceller son héritage". L'article pensait que Hinton, Bengio et d'autres avaient publié une lettre commune. a amené les gens à changer leur vision de l’IA, passant d’une vision initiale comme un assistant auxiliaire à une vision comme une menace potentielle. L’article poursuit en disant qu’au cours des derniers mois, les observateurs ont détecté un sentiment croissant au Royaume-Uni selon lequel l’IA provoquerait la fin du monde. En mars de cette année, le gouvernement britannique a publié un livre blanc promettant de ne pas étouffer l’innovation dans le domaine de l’IA. Pourtant, à peine deux mois plus tard, le Royaume-Uni envisage de mettre des garde-fous à l’IA et exhorte les États-Unis à accepter leurs projets de règles mondiales en matière d’IA.
Lien de l'article : https://www.telegraph.co.uk/business/2023/09/23/Helios Artificial Intelligence Security Summit : Sunak et les experts en IA/ (Remarque : le contenu fourni est déjà en chinois. Il n'est donc pas nécessaire de le réécrire.)
La réponse de LeCun à cet article est qu'il ne veut pas que les inquiétudes du Royaume-Uni concernant les risques fatalistes de l'IA se propagent à d'autres. pays
Après cela, il y a eu la communication entre LeCun et les utilisateurs de X que nous avons mentionnée plus tôt. Voici toutes les réponses de LeCun :
"Altman, Hassabis et Amodei sont engagés dans un lobbying d'entreprise à grande échelle. Ils essayez de réglementer l'industrie de l'IA. Et vous, Geoff et Yoshua donnez des munitions à ceux qui font pression pour l'interdiction de la recherche ouverte sur l'IA.
Si votre campagne de peur réussit, vous le ferez inévitablement. résultat du désastre : quelques entreprises contrôleront l’intelligence artificielle
La grande majorité des collègues universitaires sont très favorables à la recherche et au développement en IA ouverte. Peu de gens croient aux scénarios apocalyptiques dont vous faites la promotion. Vous, Yoshua, Geoff et Stuart êtes les seules exceptions
Comme beaucoup de gens, je suis un grand partisan des plateformes ouvertes d'IA car je crois en l'importance d'intégrer diverses forces : la créativité des gens, la démocratie, la force des marchés et la réglementation des produits. J’ai également appris que nous avons la capacité de produire des systèmes d’IA sûrs et sous notre contrôle. J'ai fait des suggestions spécifiques qui, je l'espère, pousseront les gens à prendre les bonnes décisions
Vos écrits donnent le sentiment que l'IA est un phénomène naturel et que nous n'avons aucun contrôle sur son développement. Mais en réalité, ce n’est pas le cas. La raison pour laquelle l’IA peut progresser est due à tous les membres de la société humaine. Chacun de nous a le pouvoir de créer la bonne chose. Appeler à une réglementation de la R&D suppose en réalité que ces personnes et les organisations pour lesquelles ils travaillent sont incompétentes, imprudentes, autodestructrices ou perverses. Mais ce n’est pas le cas
J’ai trouvé beaucoup d’arguments pour prouver que le scénario apocalyptique que vous craignez est ridicule. Je n'entrerai pas dans les détails ici. Mais le point principal est que si des systèmes d’IA puissants sont guidés par des objectifs, y compris des garde-fous, ils seront alors sûrs et contrôlables car ils fixent ces garde-fous et ces objectifs. (Le LLM autorégressif actuel n'est pas axé sur des objectifs, alors n'extrapolons pas à partir des faiblesses du LLM autorégressif)
Le problème avec l'open source est que vos activités auront exactement l'effet inverse de ce que vous poursuivez. À l’avenir, les systèmes d’IA deviendront le trésor de toutes les connaissances et de la culture humaines. Ce dont nous avons besoin, c’est d’une plateforme open source et gratuite pour que chacun puisse y contribuer. L’ouverture est le seul moyen de faire en sorte que les plateformes d’IA reflètent l’ensemble des connaissances et de la culture humaines. Cela nécessite que les contributions à ces plateformes soient participatives, à l’instar de Wikipédia. À moins que la plateforme ne soit ouverte, cela ne fonctionnera pas.
Si les plateformes d’IA open source sont réglementées, une autre situation se présentera où quelques entreprises contrôleront les plateformes d’IA et contrôleront ainsi les dépendances numériques de tous. Qu’est-ce que cela signifie pour la démocratie ? Qu’est-ce que cela signifie pour la diversité culturelle ? C'est ce qui m'empêche de dormir toute la nuit
Sous le tweet de LeCun, de nombreuses personnes ont également exprimé leur soutien à ses opinions
Irina Rish, professeure au Département d'informatique et de recherche opérationnelle de l'Université de Montréal, ainsi que Mila - Membre principal québécois de l'AI Institute. Elle a déclaré que les chercheurs qui soutiennent l’IA open source ne devraient peut-être plus rester silencieux et devraient diriger le développement de l’IA émergente. Le fondateur de
e/acc, Beff Jezos, a également déclaré dans la zone de commentaires que de tels commentaires sont importants et dont les gens ont besoin.
Les internautes ont déclaré qu'au départ, discuter des questions de sécurité peut enrichir l'imagination de chacun sur les technologies futures, mais que les romans de science-fiction sensationnels ne devraient pas conduire à l'émergence de politiques de monopole.
L'animateur de podcast Lex Fridman a plus à espérer dans ce débat.
Les discussions sur les risques liés à l'IA affecteront également le développement futur de l'IA. Lorsqu’une idée vole la vedette, les gens la suivent aveuglément. Ce n’est que lorsque les deux parties pourront continuer à mener des discussions rationnelles que le « vrai visage » de l’IA pourra véritablement être vu.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!