Sztuczna inteligencja jest lustrem ludzkości

AI nie jest ani głupia, ani nieomylna, a tym bardziej nie kieruje się jakimikolwiek uprzedzeniami. – Wszystko zależy od danych. Musimy zdecydować, czego od tej technologii oczekujemy – mówi prof. Aleksander Mądry, badacz z OpenAI.

Publikacja: 18.03.2024 03:00

AI nie jest ani głupia, ani nieomylna, a tym bardziej nie kieruje się jakimikolwiek uprzedzeniami

AI nie jest ani głupia, ani nieomylna, a tym bardziej nie kieruje się jakimikolwiek uprzedzeniami

Foto: AdobeStock

Kwestia nieomylności to jedno z największych wyzwań, jakie staje przed nami w kontekście sztucznej inteligencji. Jak zauważa Aleksander Mądry, profesor informatyki na MIT, szef działu gotowości w OpenAI, jeden z największych światowych autorytetów w dziedzinie AI, pytanie czy i na ile jesteśmy w stanie zaufać algorytmom, nie sprowadza się jednak do tego, że takie systemy mogą wprowadzać nas w błąd. Jego zdaniem chodzi o to jak zadajemy pytania, czego od tzw. dużych modeli językowych (LLM) oczekujemy i jakie są nasze granice akceptacji, jeśli te oczekiwania nie są w 100 proc. spełnione.

Algorytmy niczym lampa Aladyna

Mimo imponujących możliwości, AI można oszukać. Tak jest choćby z algorytmami analizującymi obrazy – te rozpoznające twarz mylą się, gdy użytkownik założy okulary w nietypowe wzory. Popularne w nowoczesnych samochodach systemy autonomicznej jazdy również nie są nieomylne. Niedawno głośno było o karambolu spowodowanym przez Teslę, która jechała na autopilocie. Na nią wjechały kolejne auta, kierowane już jednak przez ludzi.

– AI nie jest nieomylna, ale i ludzie popełniają błędy. Mówimy „błądzić jest rzeczą ludzką”, ale pytanie jaki jest dopuszczalny poziom błędu dla algorytmów? – zastanawia się prof. Mądry.

Czytaj więcej

Polska sztuczna inteligencja ma wesprzeć kulejącą amerykańską edukację

Jak zaznacza, nie chodzi o to, byśmy traktowali sztuczną inteligencję na tym samym poziomie co ludzi, choć nie mówi też, że należy akceptować jej wszystkie pomyłki. Jego zdaniem należy przede wszystkim zastanowić się czego od AI chcemy. Jak tłumaczy, dziś wiele osób myśli o tej technologii jak o lampie Aladyna, którą wystarczy potrzeć, a ta spełnia życzenia.

– Tyle że wszystkie opowieści o dżinie mają jeden morał: nie zawsze to, czego chcesz, się spełnia – wskazuje ekspert. I podkreśla, że rzeczywistość często wypacza oczekiwania. – Tak jest właśnie z AI – zauważa prof. Mądry. Jako przykład podaje historię pewnego zespołu naukowców, którzy pracowali nad budową systemu AI do rozpoznawania gruźlicy. Miał rozpoznawać chorobę na podstawie analizy zdjęć rentgenowskich. Mimo szkolenia algorytmów na wielu wynikach, RTG system nie działał.

Inżynierowie długo nie mogli dojść, czemu sztuczna inteligencja jest nieskuteczna w tej diagnostyce. I w końcu okazało się, że błąd leżał w procesie jej szkolenia. AI uczyła się bowiem rozpoznawać przypadki choroby, bazując głównie na zdjęciach wykonanych w krajach uboższych, gdzie w naturalny sposób chorych było więcej niż w krajach wysoko rozwiniętych.

Czytaj więcej

Polskie firmy IT mają kwitnąć. Kulą u nogi rotacja pracowników

Ale algorytmy zaczęły identyfikować objawy choroby z rodzajem maszyny rentgenowskiej, która wykonała zdjęcie. Starszy typ urządzenia występował w krajach mniej rozwiniętych, a nowoczesny sprzęt, gdzie dominowały zdjęcia osób zdrowych, w krajach bogatszych. To doprowadziło do tego, że AI działała skutecznie, tyle że nie odpowiadała na pytanie, czy na zdjęciu RTG są widoczne objawy gruźlicy, tylko czy RTG wykonano aparatem nowego czy starego typu.

– Wszystko sprowadza się więc do tego, jak pytamy i czego oczekujemy – tłumaczy badacz z OpenAI.

Trudna konfrontacja

Aleksander Mądry zwraca uwagę na fakt, że AI jest obiektywna, a kluczowe są dane, na podstawie których się uczy. Głośne wpadki technologiczne z udziałem zaawansowanych algorytmów finalnie okazywały się winą ludzi.

Czytaj więcej

Duży popyt na „cyberbezpieczników”. Polska jest celem hakerów

Tak było, gdy jedna z firm w USA postanowiła stworzyć autonomiczny system do rekrutacji pracowników. Opracowane algorytmy okazały się totalną porażką, gdyż wyszkolono je na danych pełnych uprzedzeń społecznych pochodzących z wyników wcześniejszych procesów HR.

– Finalnie AI, jeśli ktoś chciał najlepszych kandydatów, poszukiwała do pracy głównie osób o imieniu Jarred, czyli mężczyzn i to zazwyczaj białych, a do tego tych grających w lacrosse (rodzaj hokeja na trawie – red.), bo to sport popularny głównie w bardzo elitarnych szkołach – opowiada prof. Mądry.

Według niego w tym przypadku oskarżenia względem AI o cechy rasistowskie i antyfeministyczne nie jest słuszne. – Sztuczna inteligencja taka nie jest. Dlaczego? Ponieważ to jest swoiste lustro, które pokazuje nasze uprzedzenia z przeszłości. Algorytm jedynie duplikuje wzorce. W tym wypadku mówimy więc nie o uprzedzeniach AI, lecz regresji do normy – komentuje naukowiec. – Firmy starają się przeciwdziałać stronniczości danych. Ale i to jest niebezpieczne.

Czytaj więcej

Boty AI wygryzają tych pracowników. Efekty przeszły najśmielsze oczekiwania

Przywołuje przypadek bota Gemini od Google, który – by uniknąć oskarżeń o rasizm czy seksizm – „poprawia” proporcje. Proszony o generowanie obrazu niemieckich żołnierzy z 1943 r. przedstawiał czarnoskórych i Azjatki w mundurach. – Dziś musimy przemyśleć więc, co tak naprawdę chcemy, by AI robiła? Czy ma korygować historyczne skrzywienia? Jeśli tak, to które i jak? I co jest w takim razie właściwą odpowiedzią na dane zapytanie – zastanawia się ekspert z OpenAI.

Kolejne kluczowe pytanie brzmi: kto powinien decydować, co jest właściwe, a co nie. – Tworzące LLM firmy wcale nie chcą podejmować tych decyzji. Może powinniśmy mieć zatem demokratyczny proces wyboru właściwych odpowiedzi? To temat, z którym musimy się skonfrontować, a nie zamiatać go pod dywan – dodaje badacz.

Kwestia nieomylności to jedno z największych wyzwań, jakie staje przed nami w kontekście sztucznej inteligencji. Jak zauważa Aleksander Mądry, profesor informatyki na MIT, szef działu gotowości w OpenAI, jeden z największych światowych autorytetów w dziedzinie AI, pytanie czy i na ile jesteśmy w stanie zaufać algorytmom, nie sprowadza się jednak do tego, że takie systemy mogą wprowadzać nas w błąd. Jego zdaniem chodzi o to jak zadajemy pytania, czego od tzw. dużych modeli językowych (LLM) oczekujemy i jakie są nasze granice akceptacji, jeśli te oczekiwania nie są w 100 proc. spełnione.

Pozostało 90% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biznes
Mały i średni biznes dobrze ocenia polskie członkostwo w UE
Biznes
Sposób na milion. Polskie firmy słyną z tego w UE
Biznes
Kłopotliwy ślad węglowy dla spółek giełdowych
Biznes
Dubaj światowym centrum wiz. Start-up staje się potentatem
Biznes
Przy granicy z Polską powstanie park wodny Aquapolis. Są i złe wiadomości
Materiał Promocyjny
Co czeka zarządców budynków w regulacjach elektromobilności?