Le 30 novembre, le PDG de Tesla, Elon Musk, a déclaré que nous devrions mettre en œuvre une sorte de réglementation sur l'intelligence artificielle.
Musk a déclaré : « À mon avis, l’intelligence artificielle est plus dangereuse que les bombes nucléaires. »
Musk a toujours été préoccupé par le développement de l'intelligence artificielle et a mis en garde contre les risques cachés. Ce n'est pas la première fois qu'Elon Musk utilise une bombe nucléaire comme métaphore des dangers de l'intelligence artificielle.
En 2017, il a souligné que la technologie de l’intelligence artificielle commence à devenir plus dangereuse que les ogives nucléaires car elle peut se répliquer sans restrictions et que les humains ne peuvent pas la contrôler.
En 2013, lorsque Google envisageait d'acquérir DeepMind, Musk a exprimé son opposition : "L'avenir de l'intelligence artificielle ne devrait pas être décidé par Larry (l'un des fondateurs de Google).
En fait, le laboratoire de recherche sur l'intelligence artificielle « OpenAI » qui a lancé GPT a été fondé par Musk et Altman afin de faire face aux risques que l'intelligence artificielle peut entraîner.
Musk espère permettre à davantage de personnes d'utiliser l'intelligence artificielle grâce à des logiciels open source, formant ainsi un mur de protection
En 2018, Musk a tenté de fusionner OpenAI avec Tesla, mais a finalement été rejeté, ce qui a conduit à la rupture de sa relation avec OpenAI
En 2023, Musk a fondé X.AI, s'efforçant d'assurer la sécurité de l'intelligence artificielle en compétition.
【Source : Kuai Technology】
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!