Neue Forschungsergebnisse enthüllen die anhaltende Voreingenommenheit der KI gegenüber afroamerikanischen englischen Dialekten

WBOY
Freigeben: 2024-08-30 06:37:32
Original
955 Leute haben es durchsucht

New research exposes AI’s lingering bias against African American English dialects

Eine neue Studie hat den verdeckten Rassismus aufgedeckt, der in KI-Sprachmodellen verankert ist, insbesondere in der Behandlung von afroamerikanischem Englisch (AAE). Im Gegensatz zu früheren Untersuchungen, die sich auf offensichtlichen Rassismus konzentrierten (wie die CrowS-Pairs-Studie zur Messung sozialer Vorurteile bei maskierten LLMs), legt diese Studie besonderen Wert darauf, wie KI-Modelle negative Stereotypen durch Dialektvorurteile subtil aufrechterhalten. Diese Vorurteile sind nicht sofort sichtbar, manifestieren sich aber offensichtlich, wie etwa die Assoziation von AAE-Sprechern mit Jobs mit niedrigerem Status und härteren Strafurteilen.

Die Studie ergab, dass selbst Modelle, die darauf trainiert wurden, offene Voreingenommenheit zu reduzieren, immer noch tiefsitzende Vorurteile hegen. Dies könnte weitreichende Auswirkungen haben, insbesondere da KI-Systeme zunehmend in kritische Bereiche wie Beschäftigung und Strafjustiz integriert werden, in denen Fairness und Gleichberechtigung über alles andere stehen.

New research exposes AI’s lingering bias against African American English dialects

Die Forscher verwendeten eine Technik namens „Matched Guise Probing“, um diese Vorurteile aufzudecken. Durch den Vergleich, wie KI-Modelle auf Texte reagierten, die in Standard American English (SAE) und AAE verfasst waren, konnten sie zeigen, dass die Modelle AAE durchweg mit negativen Stereotypen assoziieren, selbst wenn der Inhalt identisch war. Dies ist ein klarer Hinweis auf einen fatalen Fehler in den aktuellen KI-Trainingsmethoden – oberflächliche Verbesserungen bei der Reduzierung von offenem Rassismus führen nicht unbedingt zur Beseitigung tieferer, heimtückischerer Formen der Voreingenommenheit.

KI wird sich zweifellos weiterentwickeln und in mehr Aspekte der Gesellschaft integrieren. Allerdings besteht dadurch auch die Gefahr, dass bestehende gesellschaftliche Ungleichheiten aufrechterhalten und sogar verstärkt werden, anstatt sie zu mildern. Szenarien wie diese sind der Grund, warum diese Diskrepanzen vorrangig angegangen werden sollten.

New research exposes AI’s lingering bias against African American English dialects

New research exposes AI’s lingering bias against African American English dialects

Das obige ist der detaillierte Inhalt vonNeue Forschungsergebnisse enthüllen die anhaltende Voreingenommenheit der KI gegenüber afroamerikanischen englischen Dialekten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:notebookcheck.net
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!