Le développement de technologies à forte intensité de calcul telles que l'apprentissage automatique entraîne une empreinte carbone élevée et contribue au changement climatique. En plus d'une croissance rapide, Machinery dispose d'un portefeuille croissant d'outils et de technologies d'IA verte pour aider à compenser les émissions de carbone et ouvrir une voie de développement plus durable.
Les coûts environnementaux sont élevés, selon une étude publiée le mois dernier par Microsoft et l'Allen Institute for Artificial Intelligence, ainsi que par des co-auteurs de l'Université hébraïque, de l'Université Carnegie Mellon et de la communauté d'IA hugsFace. Will Buchanan, chef de produit pour Azure Machine Learning chez Microsoft, membre de la Green Software Foundation et co-auteur de l'étude, a déclaré que l'étude avait extrapolé les données pour montrer que pour un modèle ML de 6 milliards de paramètres (un grand langage modèle), une instance de formation produit autant de dioxyde de carbone que la combustion de tout le charbon dans un grand wagon.
Abhijit Sunil, analyste chez Forrester Research, a déclaré que dans le passé, le code était optimisé dans les systèmes embarqués qui étaient limités par des ressources limitées, telles que les téléphones portables, les réfrigérateurs ou les satellites. Toutefois, les technologies émergentes telles que l’IA et le ML ne sont pas soumises à ces limitations, a-t-il déclaré.
« Lorsque nous disposons de ressources apparemment illimitées, la priorité est d'écrire autant de code que possible », explique Sunil.
L'intelligence artificielle verte, le processus visant à rendre le développement de l'intelligence artificielle plus durable, apparaît comme une solution possible au problème de la consommation d'énergie algorithmique. "Il s'agit avant tout de réduire les coûts cachés du développement technologique lui-même", a déclaré Abhishek Gupta, fondateur et chercheur principal de l'Institut d'éthique en intelligence artificielle de Montréal et président du groupe de travail sur les normes de la Green Software Foundation. Selon Abhishek Gupta, le développeur doit comprendre si l'IA est adaptée à son travail et comprendre pourquoi l'apprentissage automatique est déployé en premier lieu.
« Vous n'avez pas toujours besoin de l'apprentissage automatique pour résoudre un problème », a déclaré Gupta.
Gupta a déclaré que les développeurs devraient également envisager de mener une analyse coûts-avantages lors du déploiement du ML. Par exemple, si l’apprentissage automatique est utilisé pour augmenter la satisfaction à l’égard d’une plateforme de 95 % à 96 %, cela ne vaut peut-être pas le coût supplémentaire pour l’environnement, a-t-il déclaré.
Choisissez des régions respectueuses du carbone
Buchanan a déclaré : "C'est le levier le plus influent qu'un développeur puisse utiliser aujourd'hui."
Gupta a donné un exemple : un développeur peut choisir d'opérer dans la province canadienne du Québec au lieu des États-Unis. Il opère dans le Midwest parce qu'il y a de l'électricité là-bas. provient principalement des combustibles fossiles. Plus de 90 % de l'électricité du Québec, Canada, provient de l'énergie hydroélectrique.
Lorsqu'elles décident où les tâches d'apprentissage automatique doivent être exécutées, les entreprises doivent également prendre en compte des facteurs allant au-delà du type d'énergie. En avril 2021, Google Cloud a lancé un sélecteur de zone verte pour aider les entreprises à évaluer le coût, la latence et l'empreinte carbone lors du choix de l'endroit où opérer. Mais tous les fournisseurs de cloud ne disposent pas de tels outils, a déclaré Buchanan.
Pour résoudre ce problème, la Green Software Foundation développe un nouvel outil appelé Carbon AwareSDK, qui recommandera les meilleures régions à partir desquelles lancer des ressources, a-t-il déclaré. Une version alpha devrait être disponible dans les prochains mois.
Autres approches respectueuses de l'environnement
Une autre option, a déclaré Gupta, consiste pour les développeurs à utiliser tinyML, qui réduit les modèles d'apprentissage automatique grâce à la quantification, à la distillation des connaissances et à d'autres méthodes. L'objectif, a-t-il déclaré, est de minimiser les modèles afin qu'ils puissent être déployés de manière plus efficace en termes de ressources, comme sur les appareils de pointe. Mais comme ces modèles fournissent une intelligence limitée, ils peuvent ne pas convenir aux cas d’utilisation complexes.
« La tendance dans l'industrie est de penser que plus grand est mieux, mais nos recherches montrent que vous pouvez argumenter contre cela et indiquer clairement que vous devez choisir le bon outil pour le travail », explique Buchanan.
Les mesures de consommation pourraient être la solution
Par exemple, Microsoft a rendu l'année dernière les mesures de consommation d'énergie disponibles dans Azure Machine Learning, permettant aux développeurs d'identifier leur travail le plus énergivore. Ces mesures se concentrent sur le GPU gourmand en énergie, qui est plus rapide que le CPU mais consomme plus de 10 fois plus d'énergie. Les GPU, qui sont souvent utilisés pour exécuter des modèles d’IA, sont souvent les principaux responsables de la consommation d’énergie, a déclaré Buchanan.
Cependant, des outils plus interopérables sont encore nécessaires, a déclaré Buchanan, faisant référence aux outils d'IA verte fragmentés actuellement disponibles. "La Green Software Foundation travaille sur une chose", a-t-il déclaré, "mais je pense que les fournisseurs de cloud doivent faire des investissements concertés pour améliorer l'efficacité énergétique
".Gupta a déclaré que l'objectif ultime est de déclencher des changements de comportement et de faire des pratiques d'IA verte la norme. "Nous ne faisons pas cela uniquement à des fins comptables", a-t-il déclaré.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!