Microsoft interdit progressivement l'utilisation publique de certains outils d'analyse faciale d'intelligence artificielle, dont un qui prétend être capable d'identifier les émotions des sujets à partir de vidéos et d'images.
Cet outil de « reconnaissance des émotions » a été critiqué par les experts. Ils disent qu'il est largement admis que les expressions faciales diffèrent selon les personnes et qu'il n'est pas scientifique d'assimiler les manifestations externes d'émotion aux émotions internes. Parce qu'une machine peut détecter un air renfrogné, mais ce n'est pas la même chose que détecter la colère.
Cette décision s’inscrit dans le cadre d’une réforme majeure de la politique éthique de l’intelligence artificielle de Microsoft. Les normes mises à jour de l'entreprise en matière d'IA responsable, proposées pour la première fois en 2019, mettent l'accent sur la responsabilité de savoir qui utilise ses services et augmentent la surveillance humaine de l'endroit où ces outils sont utilisés.
Concrètement, cela signifie que Microsoft limitera l'accès à certaines fonctionnalités de son service de reconnaissance faciale (baptisé Azure Face) et en supprimera complètement d'autres. Les utilisateurs doivent demander à utiliser Azure Face pour la reconnaissance faciale, par exemple en indiquant à Microsoft comment et où ils vont déployer leur système. Certains cas d’utilisation moins nuisibles, comme le flou automatique des visages dans les images et vidéos, resteront en libre accès.
En plus de supprimer l'accès public à ses outils de reconnaissance des émotions, Microsoft a également supprimé la capacité d'Azure Face à identifier « des attributs tels que le sexe, l'âge, le sourire, la pilosité faciale, les cheveux et le maquillage ».
Natasha Crampton, responsable de l'IA chez Microsoft, a écrit dans un article de blog annonçant la nouvelle : « Les experts à l'intérieur et à l'extérieur de l'entreprise ont souligné le manque de définition scientifique du consensus « émotion », les défis liés à la manière d'extrapoler à travers les cas d'utilisation, les régions, et démographiques, et des préoccupations accrues en matière de confidentialité autour de ces fonctionnalités. "
À partir du 21 juin, Microsoft cessera de proposer ces fonctionnalités aux nouveaux utilisateurs. Les droits d'accès des utilisateurs existants seront révoqués le 30 juin 2023.
Certaines applications d'IA de Microsoft offriront toujours la reconnaissance des émotions.
Bien que Microsoft ne rende plus ces fonctionnalités accessibles au public, il continuera à les utiliser dans au moins un de ses produits : une application appelée Seeing AI qui utilise la vision industrielle pour offrir « une nouvelle capacité de voir » le monde.
Sarah Bird, chef de produit au sein de l'équipe principale Azure AI de Microsoft, a déclaré que des outils tels que la reconnaissance des émotions sont « précieux lorsqu'ils sont utilisés dans des scénarios d'accessibilité contrôlée ». On ne sait pas si ces outils seront utilisés dans d'autres produits Microsoft.
Microsoft a également introduit des restrictions similaires sur sa fonctionnalité Custom Neural Voice, qui permet aux clients de créer des voix d'intelligence artificielle basées sur des enregistrements de personnes réelles (parfois appelé deepfake audio).
Cet outil « a un potentiel passionnant en matière d’éducation, d’accessibilité et de divertissement », mais Bird a également noté qu’« il peut également être facilement utilisé pour usurper l’identité de locuteurs de manière inappropriée et tromper les auditeurs ». Microsoft affirme qu'il limitera à l'avenir l'accès à cette fonctionnalité à « la gestion des clients et des partenaires » et « garantira la participation active de l'orateur d'origine lors de la création de discours synthétisés ».
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!