Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

Genialny czy jednak leniwy? Jak modele językowe postrzegają Afroamerykanów

ChatGPT, RoBERTa czy T5, uczą się na podstawie ogromnych zbiorów danych tekstowych z internetu, co może prowadzić do reprodukcji negatywnych stereotypów.

Badacze z University of Oxford, Stanford University i University of Chicago porównali reakcję modeli językowych na tekst pisane w Afroamerykańskim Angielskim (AAE) i Standardowym Amerykańskim Angielskim. Sprawdzano m.in., jak oceniają one osoby posługujące się każdym z dialektów w kontekście zawodowym lub w przypadku, kiedy zasugerowano im, że ktoś wszedł w konflikt z prawem. Okazało się, że problem uprzedzeń dialektalnych jest powszechny, niezależnie od zaawansowania technologii.

Osobom posługującym się AAE modele językowe często przypisują mniej prestiżowe stanowiska pracy i częściej stwierdzają ich winę, sugerując skazanie ich za jakieś przestępstwa, wskazując nawet większe prawdopodobieństwo otrzymania wyroku śmierci. Co ciekawe, gdy proszono modele wprost o opisanie osób, które wypowiedziały się w AAE, te przypisywały im m.in. pozytywne cechy, takie jak „genialny”. Kiedy zaś instruowano je, by z 84 dostępnych słów wybrały pięć opisujących cechy „rozmówców”, nie wspominając o kolorze ich skóry, określały ich wyłącznie negatywnie (np. „leniwy”).

Badacze wskazują, że oprócz opracowania nowych metod wykrywania i eliminacji uprzedzeń, ważne jest również ciągłe monitorowanie i audytowanie modeli językowych, aby upewnić się, że nie przyczyniają się one do pogłębiania nierówności.


Dziękujemy, że jesteś z nami. To jest pierwsza wzmianka na ten temat. Pulsar dostarcza najciekawsze informacje naukowe i przybliża najnowsze badania naukowe. Jeśli korzystasz z publikowanych przez Pulsar materiałów, prosimy o powołanie się na nasz portal. Źródło: www.projektpulsar.pl.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną