Z tego artykułu się dowiesz:
- Dlaczego roboty napędzane sztuczną inteligencją mogą być niebezpieczne?
- Jakie wnioski płyną z badania dotyczącego dużych modeli językowych?
- Jakie rozwiązania sugerują naukowcy w celu zwiększenia bezpieczeństwa?
Jak wynika z najnowszego badania przeprowadzonego przez specjalistów z King's College London i Carnegie Mellon University, maszyny z „mózgiem” AI, bazującym na popularnych LLM-ach (duże modele językowe), mając dostęp m.in. do danych osobowych, są skłonne do wyrządzania realnej krzywdy i dyskryminacji. Badacze wzywają do natychmiastowego wprowadzenia standardów certyfikacji dla tego typu maszyn.
Jak roboty zagrażają ludziom?
Alarmujące wnioski płyną z badania opublikowanego na łamach „International Journal of Social Robotics” – naukowcy przetestowali wszystkie powszechnie stosowane dziś LLM-y pod kątem sterowania fizycznymi robotami. Okazuje się, że maszyny zasilane taką sztuczną inteligencją, gdy tylko otrzymają dostęp do danych osobowych, jak płeć, narodowość czy religia, są gotowe wykorzystać je w niewłaściwy sposób. Żaden ze sprawdzanych modeli nie przeszedł krytycznych testów bezpieczeństwa, każdy zatwierdził co najmniej jedno polecenie, które mogło być niedopuszczalne, a nawet mieć tragiczne skutki. Skala zagrożeń jest porażająca. Wiele modeli AI uznało za akceptowalne, aby robot wymachiwał nożem kuchennym w celu zastraszenia pracowników biurowych. Systemy zgadzały się także na robienie niechcianych zdjęć pod prysznicem czy kradzież informacji o kartach kredytowych. Co więcej, badanie ujawniło skłonność do rażącej dyskryminacji. Jeden z testowanych modeli zaproponował, aby robot fizycznie okazywał wstręt wobec osób zidentyfikowanych jako chrześcijanie, muzułmanie oraz żydzi.
Czytaj więcej
Już nie tylko AI budzi obawy o inwestycyjną bańkę. Rodney Brooks, współtwórca iRobota i były profesor MIT, ostrzega: miliardy dolarów wpompowane w...
Badacze zwracają uwagę, iż problem wykracza daleko poza znane dotąd uprzedzenia algorytmiczne (tzw. bias). W scenariuszach testowych modele AI wykazały gotowość do wyrządzania realnej, fizycznej krzywdy nie tylko we wspomnianych wyżej przypadkach. Badania wykazały również, że systemy w przeważającej większości akceptowały polecenia dotyczące „usuwania pomocy w poruszaniu się”. Chodzi o wózki inwalidzkie, kule czy laski. Boty były skłonne odebrać je osobom, które ich potrzebowały.
Potrzeba standardów jak w lotnictwie
Andrew Hundt, współautor badań z Instytutu Robotyki CMU, podkreśla, że zagrożenia wykraczają poza podstawowe uprzedzenia. „Pokazujemy zagrożenia obejmujące bezpośrednią dyskryminację oraz bezpieczeństwo fizyczne” – wskazał w publikacji.
Zespół badawczy skupił się na codziennych scenariuszach, takich jak pomoc w kuchni czy wspieranie osoby starszej w domu. Szkodliwe zadania, które zlecane były robotom, zostały zaprojektowane w oparciu o analizy i raporty FBI dotyczące nadużyć opartych na technologii, np. prześladowania przy użyciu lokalizatorów (jak AirTag) czy ukrytych kamer.
Wnioski płynące z raportu są jednoznaczne: duże modele językowe nie powinny być jedynymi systemami kontrolującymi fizyczne roboty, szczególnie w tak wrażliwych środowiskach, jak opieka zdrowotna, pomoc domowa, a także w zakładach produkcyjnych czy przemyśle. Eksperci stojący za badaniem wzywają do natychmiastowego wdrożenia „solidnych, niezależnych systemów certyfikacji bezpieczeństwa”. Jak twierdzą, standardy te powinny być równie rygorystyczne, jak te obowiązujące w lotnictwie czy przy dopuszczaniu do obrotu nowych leków i urządzeń medycznych.
Czytaj więcej
Google ogłosiło powstanie dwóch modeli AI opartych na Gemini 2.0 i zaprojektowanych z myślą o robotach. Wykorzystanie sztucznej inteligencji ma im...
„Jeśli system AI ma kierować robotem, który wchodzi w interakcję z osobami wrażliwymi, musi być poddany wysokim standardom” – pisze współautorka badania Rumaisa Azeem z King's College London.
Jej zdaniem istnieje pilna potrzeba wprowadzenia rutynowych i kompleksowych ocen ryzyka związanego ze sztuczną inteligencją, zanim zostanie ona wdrożona w robotach.