Une nouvelle recherche révèle les préjugés persistants de l'IA à l'encontre des dialectes anglais afro-américains

WBOY
Libérer: 2024-08-30 06:37:32
original
999 Les gens l'ont consulté

New research exposes AI’s lingering bias against African American English dialects

Une nouvelle étude a révélé le racisme caché intégré dans les modèles linguistiques de l'IA, en particulier dans leur traitement de l'anglais afro-américain (AAE). Contrairement aux recherches précédentes axées sur le racisme manifeste (comme l'étude CrowS-Pairs pour mesurer les préjugés sociaux dans les LLM masqués), cette étude met un accent particulier sur la façon dont les modèles d'IA perpétuent subtilement les stéréotypes négatifs à travers les préjugés dialectaux. Ces préjugés ne sont pas immédiatement visibles mais se manifestent évidemment, par exemple en associant les locuteurs de l'AAE à des emplois de statut inférieur et à des jugements pénaux plus sévères.

L'étude a révélé que même les modèles formés pour réduire les préjugés manifestes nourrissent toujours des préjugés profondément enracinés. Cela pourrait avoir des implications considérables, d’autant plus que les systèmes d’IA sont de plus en plus intégrés dans des domaines critiques comme l’emploi et la justice pénale, où la justice et l’équité sont essentielles avant tout.

New research exposes AI’s lingering bias against African American English dialects

Les chercheurs ont utilisé une technique appelée « sondage d'apparence assortie » pour découvrir ces préjugés. En comparant la façon dont les modèles d’IA réagissaient aux textes écrits en anglais américain standard (SAE) par rapport à l’AAE, ils ont pu démontrer que les modèles associaient systématiquement l’AAE à des stéréotypes négatifs, même lorsque le contenu était identique. Il s’agit d’un indicateur clair d’une faille fatale dans les méthodes actuelles de formation à l’IA : les améliorations superficielles dans la réduction du racisme manifeste ne se traduisent pas nécessairement par l’élimination de formes de préjugés plus profondes et plus insidieuses.

L'IA continuera sans aucun doute à évoluer et à s'intégrer dans davantage d'aspects de la société. Cependant, cela soulève également le risque de perpétuer, voire d’amplifier les inégalités sociétales existantes, plutôt que de les atténuer. Des scénarios comme ceux-ci sont la raison pour laquelle ces écarts doivent être traités en priorité.

New research exposes AI’s lingering bias against African American English dialects

New research exposes AI’s lingering bias against African American English dialects

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:notebookcheck.net
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!