Anderson pense que l'IA sauvera le monde
Selon les informations du 7 juin, heure de Pékin, Marc Andreessen, un capital-risqueur bien connu de la Silicon Valley, a publié mardi un article réfutant la récente « théorie apocalyptique de l'IA ». Il a déclaré que les gens ne devraient pas s'inquiéter de l'IA. L'IA sauvera le monde et continuera simplement à promouvoir le développement de l'IA. Ceux qui prônent la « théorie apocalyptique de l'IA » sont des sectes et constituent la véritable menace.
En 2011, Anderson a fait une déclaration célèbre selon laquelle « les logiciels dévorent le monde ». Ses opinions soulignent l’importance des logiciels à l’avenir et indiquent qu’il investira dans des entreprises axées sur les logiciels. Mais maintenant, les gens commencent à s’inquiéter du fait que « l’IA dévore le monde ». En réponse, Anderson a publié un article critiquant les partisans de la fin du monde de l’IA.
Mardi, Anderson a publié un article de près de 7 000 mots intitulé « Pourquoi l'IA va sauver le monde », expliquant son point de vue sur l'IA, les risques posés par l'IA et le type de réglementation dont il pense qu'elle a besoin. Il propose un point de vue qui pourrait être considéré comme trop idéaliste pour contrer tous les récents discours sur la « fin du monde de l’IA ».
Anderson publie l'article "Pourquoi l'IA va sauver le monde"
"L'ère de l'IA est arrivée et les gens ont peur. La bonne nouvelle est ce que je peux apporter : l'IA ne provoquera pas la fin du monde, mais pourrait devenir un outil pour sauver le monde.", a écrit Anderson au début.
L’IA ne « tuera » pas les gens
Anderson a été le premier à donner une interprétation précise de l'IA ou de l'apprentissage automatique, en l'appelant « l'application des mathématiques et du code logiciel conçue pour enseigner aux ordinateurs comment comprendre, synthétiser et générer des connaissances d'une manière similaire à celle des humains ».
Il a souligné que même si l'IA peut imiter les capacités du langage humain, elle ne possède pas de véritables capacités de perception, de sorte que certaines personnes peuvent croire à tort qu'elle possède de telles capacités. Il est formé au langage humain et trouve des modèles de haut niveau dans ces données.
"L'IA n'a aucun désir, aucun objectif et aucune envie de vous tuer parce qu'elle n'a pas de vie", a écrit Anderson. "L'IA est une machine, elle n'est pas plus vivante que votre grille-pain
."Ensuite, il a commencé à discuter des préoccupations actuelles de l'industrie concernant l'IA. Selon Anderson, le développement de l’IA est entravé par une barrière « d’anxiété extrême et de jugement apocalyptique ». Bien qu’il n’ait nommé personne spécifiquement, il faisait probablement référence aux récentes affirmations de deux éminents leaders technologiques selon lesquelles l’intelligence artificielle pourrait constituer une menace existentielle pour l’humanité.
La semaine dernière, le fondateur de Microsoft Bill Gates, le PDG d'OpenAI Sam Altman, le PDG de DeepMind Demis Hassabis et d'autres ont signé une lettre de Une lettre ouverte de l'AI Safety Center affirme que l'humanité est confrontée au « risque d'extinction de l'IA ».
Altmann affirme que l’humanité est confrontée à un « risque d’extinction de l’IA »
Anderson a déclaré que la raison pour laquelle les PDG des entreprises technologiques sont motivés à promouvoir cette vision apocalyptique est que « si l'industrie peut ériger des barrières réglementaires et former un cartel (organisation monopolistique) composé de fournisseurs d'IA soutenus par le gouvernement), protégez-les des nouvelles startups. et la concurrence open source, et ils peuvent gagner plus d'argent.
En fait, de nombreux chercheurs et éthiciens en IA ont également critiqué cette théorie apocalyptique. L’un des arguments est qu’une trop grande attention accordée au pouvoir croissant et aux menaces futures de l’IA détourne l’attention des dommages réels que certains algorithmes causent actuellement aux communautés marginalisées et ne devrait pas déplacer l’attention vers une période future incertaine.
Anderson estime que les personnes occupant des postes tels que les experts en sécurité de l'IA, les éthiciens et les chercheurs en matière de risques "sont payés pour être des théoriciens de la fin du monde, et leurs théories doivent être traitées de manière appropriée".
Les défenseurs des risques liés à l’IA sont des « sectes »
Bien que l’IA ait fait des progrès significatifs dans de nombreux domaines, notamment le développement de vaccins et les services de chatbot, ses méfaits documentés ont conduit de nombreux experts à conclure que pour certaines applications, l’IA ne devrait pas être utilisée.
Anderson décrit ces peurs comme des « paniques morales » irrationnelles. Il a également préconisé un retour à la pratique passée de l'industrie technologique consistant à « avancer rapidement et à casser les choses », arguant que les grandes entreprises et startups d'IA « devraient être autorisées à développer l'IA aussi rapidement et de manière agressive que possible » ira à partir d’ici un développement accéléré.
Il a également comparé les partisans de la fin du monde de l’IA aux organisations sectaires. Il a déclaré que la Californie est célèbre pour ses milliers de sectes, de l'EST au Temple du Peuple, de Heaven's Gate à la famille Manson, et que la « théorie des risques de l'IA » s'est développée en une secte, qui a soudainement attiré l'attention des médias mondiaux et l'attention des médias mondiaux. débat public. Anderson a déclaré que la secte attirait non seulement des personnalités marginales, mais aussi de véritables experts du secteur et de nombreux riches donateurs, dont Sam Bankman-Fried, le fondateur de l'échange de crypto-monnaie FTX qui a été arrêté (Sam Bankman-Fried), et s'est développée en tout un culte des comportements et des croyances.
Anderson a déclaré que c'est précisément à cause de cette secte qu'il existe des « apocalypses de l'IA » avec des opinions extrêmes. Ils n'ont pas vraiment de connaissances secrètes qui peuvent rendre leur extrémisme logique, mais ils se sont incités au fanatisme, ce qui était le cas. extrêmement extrême.
Comment superviser ?
Andreessen a dit un jour : « Les logiciels vont manger le monde ». Mais maintenant, les gens craignent que l’IA ne dévore le monde. En plus de s'efforcer d'apaiser ces inquiétudes, Anderson a déclaré qu'il restait encore du travail à faire. Il préconise l’utilisation d’une technologie controversée d’IA pour protéger les gens contre les préjugés et les préjudices liés à l’IA.
Le gouvernement et le secteur privé devraient coopérer pour appliquer activement l’intelligence artificielle dans les domaines où il existe des risques potentiels afin de maximiser les capacités de défense de la société. ", a-t-il écrit.
Dans le futur idéalisé d’Anderson, « chaque enfant aura un tuteur en IA extrêmement patient, compatissant, compétent et serviable ». Selon Anderson, l’intelligence artificielle peut servir d’assistant et de collaborateur à tout le monde, qu’il s’agisse de scientifiques, d’enseignants, de PDG, de chefs de gouvernement ou de commandants militaires.
【Source : Technologie Phoenix】
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!