Kwestia nieomylności to jedno z największych wyzwań, jakie staje przed nami w kontekście sztucznej inteligencji. Jak zauważa Aleksander Mądry, profesor informatyki na MIT, szef działu gotowości w OpenAI, jeden z największych światowych autorytetów w dziedzinie AI, pytanie czy i na ile jesteśmy w stanie zaufać algorytmom, nie sprowadza się jednak do tego, że takie systemy mogą wprowadzać nas w błąd. Jego zdaniem chodzi o to jak zadajemy pytania, czego od tzw. dużych modeli językowych (LLM) oczekujemy i jakie są nasze granice akceptacji, jeśli te oczekiwania nie są w 100 proc. spełnione.
Algorytmy niczym lampa Aladyna
Mimo imponujących możliwości, AI można oszukać. Tak jest choćby z algorytmami analizującymi obrazy – te rozpoznające twarz mylą się, gdy użytkownik założy okulary w nietypowe wzory. Popularne w nowoczesnych samochodach systemy autonomicznej jazdy również nie są nieomylne. Niedawno głośno było o karambolu spowodowanym przez Teslę, która jechała na autopilocie. Na nią wjechały kolejne auta, kierowane już jednak przez ludzi.
– AI nie jest nieomylna, ale i ludzie popełniają błędy. Mówimy „błądzić jest rzeczą ludzką”, ale pytanie jaki jest dopuszczalny poziom błędu dla algorytmów? – zastanawia się prof. Mądry.
Czytaj więcej
Smartschool, który rozwija platformę wspierającą uczniów za oceanem, rośnie w siłę. Start-up pozyskał od inwestorów 1,5 mln dol. Czy pójdzie w ślady podbijającej Amerykę polskiej platformy rezerwacyjnej Booksy?