Algorytm Twittera Cię NIE LUBI, jeśli nie masz białej, szczupłej, pięknej twarzy
Nigdy nie przyszłoby mi do głowy, że algorytm, który przycina zdjęcia publikowane na koncie użytkownika na Twitterze może być rasistowski. Serio, jak to w ogóle brzmi? Tymczasem okazuje się, że taki jest i to bardzo.
Użytkownicy Twittera odkryli, że algorytm do przycinania zdjęć wykluczał fotografie osób czarnoskórych. W związku z tym portal zorganizował konkurs dla hakerów i ekspertów w dziedzinie programowania. Serwis udostępnił w internecie kod algorytmu odpowiedzialnego za przycinanie zdjęć, oferując wysokie nagrody pieniężne dla każdego, kto wykryje miejsca, gdzie kod może kierować się uprzedzeniami.
Podobne
- Dzięki nowej funkcji Twittera odżyły memy z papieżem. Nie chodzi o JPII
- Elon Musk przejął Twittera i zwolnił managerów. Trump wróci na Twittera?
- Elon Musk zrezygnuje ze stanowiska prezesa Twittera? Zadecyduje ankieta
- Nie masz 18 lat? Instagram ochroni Cię przed starymi, których nie znasz
- Elon Musk chce być gwiazdą Twittera. Wciska ludziom swoje wpisy
Nagrodę w wysokości 3500 dolarów otrzymał Bogdan Kulynych - doktorant ze Szwajcarii - który wykazał stronniczość w działaniach algorytmu. Naukowiec przy pomocy sztucznej inteligencji wygenerował ogromną ilość ludzkich twarzy, które różniły się między sobą odcieniem skóry, rysami, rozmiarem, wiekiem. Następnie wprowadził te warianty do algorytmu przycinania zdjęć z Twittera.
Doktorant odkrył, że algorytm Twittera jest rasistowski
Kulynych wykazał w swoim badaniu, że algorytm do przycinania zdjęć faworyzował twarze, które są młode, szczuplejsze i o jasnej cerze, dyskryminując w ten sposób twarze starsze, szersze lub o ciemniejszej cerze. Naukowiec powiedział, że stronniczy algorytm wzmacnia uprzedzenia w społeczeństwie, ponieważ dosłownie wycina osoby, które nie spełniają warunków masy ciała, wieku i koloru skóry.
Na jaw wyszło o wiele więcej
W konkursie Twittera wyróżniony został Vincenzo di Cicco. Wykazał on, że algorytm faworyzował emoji z jaśniejszymi odcieniami skóry, dyskryminując emocji z ciemniejszą cerą. Z kolei Roya Pakzad ujawnił, że algorytm kierował się uprzedzeniami dotyczącymi języka. Porównując memy używające języka angielskiego i arabskiego, algorytm przycinał memy po arabsku, wyróżniając memy w języku angielskim.
Z czego to wynika?
Bogdan Kulynych wytłumaczył, że "tego rodzaju działanie algorytmu to nie są tylko "błędy". Wiele szkodliwych technologii jest szkodliwych nie z powodu wypadków przy pracy, niezamierzonych błędów, ale raczej ze względu na założenia projektowe. Wynika to z maksymalizacji zaangażowania i przenoszenia kosztów na innych".
Twitter pochwalił odkrycie, oceniając je jako istotne w świecie, w którym korzystamy z aparatu fotograficznego i aplikacji do edycji z filtrami upiększającymi.
Popularne
- Co zapamiętamy z Vibez Creators Awards 2025? Najlepsze momenty gali
- Zasięgi to nie wszystko. Dziś influencerzy budują imperia
- Kolacja z Natsu wystawiona na licytację. Pieniądze pójdą na szczytny cel
- Influencerskie podsumowanie 2025 r. O czym huczał internet?
- Zatrzęsienie influencerów na Vibez Creators Awards. Zdjęcia z gali
- SmileLandia istnieje? Wyjaśniamy, o co chodzi w nowym trendzie
- Piosenki tworzone przez AI podbijają "Viral 50 - Polska". Wszystko przez poziom polskiej muzyki?
- Vibez Creators Awards na żywo. Transmisja z finałowej gali
- Mata jak Travis Scott. Wielka głowa rapera stanęła pod Pałacem Kultury





