Paweł Rożyński: Jak wychować sztuczną inteligencję na dobrego człowieka

Uprzedzenia wobec kobiet, rasizm i liczne stereotypy AI przejęła od swoich twórców i poprzez wiedzę, którą jest karmiona. To już wiadomo. Teraz trzeba znaleźć sposób, jak ją zresocjalizować i dobrze wychować.

Publikacja: 07.03.2024 03:12

Sztuczna inteligencja ma uprzedzenia wobec kobiet, innych ras niż biała, czy mniejszości seksualnych

Sztuczna inteligencja. Asystentka

Sztuczna inteligencja ma uprzedzenia wobec kobiet, innych ras niż biała, czy mniejszości seksualnych

Foto: Adobe Stock

„Jestem tym, co jem” – brzmi popularne powiedzenie. Dokładnie tak jest ze sztuczną inteligencją. Jakie są algorytmy, zależy od tego, czym je nakarmiono. Na tym polegają „treningi” sztucznej inteligencji. Otrzymuje skomasowaną wiedzę w różnych dziedzinach, tworzoną przez dziesiątki lat przez ludzi o określonych poglądach. I uczy się nią posługiwać. Dlatego jest tylko odbiciem poglądów większości społeczeństwa.

AI karmią specjaliści IT, głównie mężczyźni, i to pokarmem w postaci wiedzy ogólnej od wieków zdominowanej przez mężczyzn i różne stereotypy. Na temat kobiet, osób czarnoskórych czy mniejszości seksualnych.

Uprzedzenia AI wobec kobiet

Potwierdza to opisane w poniedziałek w „Rzeczpospolitej” badanie Akademii Leona Koźmińskiego, która wzięła pod lupę dziewięć generatywnych modeli sztucznej inteligencji i sprawdziła, w jaki sposób przedstawiają one wizerunki osób w najbardziej prestiżowych zawodach. Mężczyźni byli reprezentowani aż na 76 proc. z nich, a kobiety jedynie na 8 proc. Powoduje to, że AI może utrwalać nierówności i segregację płciową w edukacji czy na ścieżce kariery zawodowej.

Czytaj więcej

Sztuczna inteligencja ma uprzedzenia wobec kobiet. Zaskakujące wyniki polskich badań

Kobiety to wierzchołek góry lodowej. Sztuczna inteligencja dyskryminuje osoby czarnoskóre, Latynosów czy mniejszości seksualne. Powiela stereotypy na ich temat. „Washington Post” zauważył w ubiegłym roku, że boty proszone o przedstawienie „osoby produktywnej” wyświetlają na ogół zdjęcia białych mężczyzn, gdy zaś mają wygenerować „osoby objęte opieką społeczną” – generują postaci o innych kolorach skóry.

W efekcie do potężnego skandalu doszło niedawno w popularnej sieci amerykańskich drogerii Rite Aid. Ta sięgnęła bowiem po narzędzie AI, by typować wśród klientów potencjalnych złodziei. Błędnie wytypowała tysiące klientów, głównie czarnoskórych i kobiet, jako zagrożenie, co prowadziło do błędnego oskarżania przez pracowników ochrony o kradzieże, przeszukiwań, wyrzucania ze sklepu czy nawet wzywania policji.

Koncerny technologiczne bezsilne

Ze zjawiskiem seksistowskiej czy rasistowskiej sztucznej inteligencji walczą koncerny zajmujące się jej rozwojem. Niestety, na razie nie są to próby zbyt udane, a ich efekt bywa groteskowy. Weźmy ostatnie problemy Google’a, którego bot Gemini, generując obrazy, celowo umieszczał w nich, zapewne na zasadzie parytetu osoby o różnych kolorach skóry czy odmiennej płci. Skutek był taki, że poproszony o stworzenie obrazów przedstawiających tzw. ojców założycieli, jak określa się sygnatariuszy amerykańskiej Deklaracji Niepodległości oraz Konstytucji Stanów Zjednoczonych (m.in. Thomas Jefferson, Benjamin Franklin czy George Washington), Gemini przedstawił grupę mężczyzn, wśród których znalazła się osoba czarnoskóra. Z kolei na rysunku, który miał pokazać nazistowskich żołnierzy z czasów II wojny światowej, znalazły się kobiety w mundurach Wehrmachtu, w tym Azjatka, czy czarnoskóry mężczyzna w hełmie ze swastyką. Podobnie było, gdy AI miała wygenerować XIX-wieczny amerykańskich senatorów – pokazała Indian, czarnoskóre kobiety i Azjatę.

Założyciel Google Sergey Brin, tłumacząc się z wpadki, przyznał właśnie niespodziewanie, że nie rozumie, dlaczego jego AI ma tendencje lewicujące. Poglądy polityczne AI to już kolejny ważny temat godny analizy. O ile człowiek może mieć poglądy na różne tematy, jakie chce, czasem dziwaczne, sztuczna inteligencja, która będzie miała ogromny wpływ na nasze życie i cały świat, już raczej nie. Jest w wieku dziecięcym i trzeba ją jak dziecko wychować na dobrego i mądrego człowieka. Tylko czy wiemy jak?

„Jestem tym, co jem” – brzmi popularne powiedzenie. Dokładnie tak jest ze sztuczną inteligencją. Jakie są algorytmy, zależy od tego, czym je nakarmiono. Na tym polegają „treningi” sztucznej inteligencji. Otrzymuje skomasowaną wiedzę w różnych dziedzinach, tworzoną przez dziesiątki lat przez ludzi o określonych poglądach. I uczy się nią posługiwać. Dlatego jest tylko odbiciem poglądów większości społeczeństwa.

AI karmią specjaliści IT, głównie mężczyźni, i to pokarmem w postaci wiedzy ogólnej od wieków zdominowanej przez mężczyzn i różne stereotypy. Na temat kobiet, osób czarnoskórych czy mniejszości seksualnych.

Pozostało 84% artykułu
Opinie Ekonomiczne
Witold M. Orłowski: Gospodarka wciąż w strefie cienia
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Opinie Ekonomiczne
Piotr Skwirowski: Nie czarne, ale już ciemne chmury nad kredytobiorcami
Ekonomia
Marek Ratajczak: Czy trzeba umoralnić człowieka ekonomicznego
Opinie Ekonomiczne
Krzysztof Adam Kowalczyk: Klęska władz monetarnych
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Opinie Ekonomiczne
Andrzej Sławiński: Przepis na stagnację