Boimy się sztucznej inteligencji

Możemy dziś tworzyć boty, które są w stanie oszukać każdego – są na tak zaawansowanym poziomie rozumienia kontekstu wypowiedzi – mówi filozof i ekspert ds. sztucznej inteligencji Aleksandra Przegalińska.

Publikacja: 26.07.2018 21:00

Boimy się sztucznej inteligencji

Foto: materiały prasowe

Rz: Sztuczna inteligencja (AI) to dziś gorący temat. Na MIT w Bostonie pracuje pani nad kilkoma projektami z zakresu interakcji człowiek–maszyny. Badacie m.in. to, jak różnego rodzaju boty i humanoidy odbierane są przez ludzi. Jaki mamy więc stosunek do AI?

Skupiamy się na pracy nad sztuczną inteligencją, która ma charakter społeczny, przede wszystkim chodzi o tzw. roboty społeczne, a więc boty, chatboty czy właśnie humanoidy. Interesuje nas to jak budować takie maszyny, z którymi ludzie wchodzą w najlepsze interakcje, interakcje bezpieczne, w których czują się komfortowo. A wnioski? Generalnie podchodzimy do tematów sztucznej inteligencji z lękami. Oczywiście nie jest to też reguła. Może pana zaskoczę, ale kobiety zdecydowanie lepiej radzą sobie w relacjach z AI niż mężczyźni. W przypadku tzw. bramy kontaktu, jaką są boty, czy chatboty, ewidentnie było widać, że kobiety z takim wirtualnymi asystentami czy doradcami, jak ich się potocznie nazywa, potrafią rozmawiać i załatwiać sprawy lepiej niż mężczyźni. Nasze badania uzmysławiają, że one bardziej akceptują tego typu technologie przyszłości. Badaliśmy też zjawisko tzw. doliny niesamowitości. To hipoteza, która mówi o tym, że humanoidalne maszyny, choć podobne do nas, budzą nasz strach i obrzydzenie. Jeśli są zbyt ludzkie, zaczynamy się ich bać. Zamiast mieć pozytywne reakcje oparte na zaufaniu i sympatii, zaczynamy się stresować.

To może nie powinniśmy tworzyć humanoidów, takich jak słynny robot Sophie, a maszyny powinny zostać maszynami?

To nie takie proste. Tworzymy maszyny, która naśladują nasze funkcje mentalne. Siłą rzeczy zyskują one więc też nasze rozmaite cechy. Rezygnacja z tego i odwrót od robotyzacji wydaje się dziś niemożliwy. Z reguły bowiem wszędzie, gdzie zastępujemy siebie jakimiś maszynami, widać pozytywne skutki gospodarcze.

Ten lęk jest irracjonalny?

Nie. Myślę, że on jest umotywowany biologicznie i bardzo stary. Zawsze baliśmy się rzeczy, które nie są jasno sklasyfikowane. Nasz organizm nauczył nas, że należy podchodzić z dużą podejrzliwością do tego typu rzeczy. Ale naturalnie AI może też nam zagrozić. Wystarczy, że któryś kraj stworzy broń autonomiczną.

AI jest zagrożeniem, tak jak zawsze była nią każda technologia w niewłaściwych rękach. Nie oznacza to jednak, że powinniśmy rezygnować z prac nad rozwojem sztucznej inteligencji. Ta może być nieocenioną np. w zastosowaniach biomedycznych czy diagnostyce medycznej.

Ale przerażające jest to, że AI może być bardziej potężna od nas.

Bo może. Przejęta przez Google'a firma DeepMind stworzyła sztuczną inteligencję AlphaGo Zero, która w ciągu kilku godzin nauczyła się grać w starą chińską grę planszową i pokonała tamtejszych mistrzów tej rozgrywki. AlphaGo Zero nie dość, że grała lepiej niż ludzie, to jeszcze wskazała zupełnie nowe możliwości rozgrywki. AI przekroczyła horyzonty poznawcze człowieka.

Kolejny przełomowy krok został wykonany wraz z wejściem Duplexa (zaprezentowana dwa miesiące temu przez Google'a usługa, wykorzystująca AI, dzięki której możemy zlecić wirtualnemu asystentowi np. rezerwację stolika w restauracji czy umówienie wizyty u fryzjera – bot sam dzwoni do lokalu i ludzkim głosem rozmawia z obsługą, rozumiejąc kontekst dyskusji – red.). Mam wrażenie, że po wprowadzeniu tego rozwiązania udało się przejść test Turinga (test pozwalający określić czy maszyna posiadła zdolność myślenia, a człowiek nie jest w stanie odróżnić, czy rozmawia z inną osobą, czy z robotem – red.). Dziś jesteśmy w stanie tworzyć boty, które są w stanie oszukać każdego – są na tak zaawansowanym poziomie rozumienia kontekstu wypowiedzi, zarządzania dialogiem czy syntezy mowy.

Czy AI może mieć świadomość?

Nierychło. Od wąsko wyspecjalizowanej sztucznej inteligencji, która jest świetna w wykonywaniu określonych zadań, do generalnej sztucznej inteligencji, która ma tożsamość, podmiotowość jest dziś bardzo daleka droga, żeby nie powiedzieć wręcz ewolucyjna. Przy dzisiejszych mocach obliczeniowych, infrastrukturze oraz technologii wydaje się to mało realne. Materiały, z których dzisiaj korzystamy, mają swoje ograniczenia. W kwestii rozwoju technologicznego nawet nie zbliżyliśmy się do sieci neuronowych i ludzkiego mózgu, z jego poziomem kompleksowości. Poza tym nie chodzi tylko o granice fizyczne i materiałowe. Chodzi o samą ewolucję. Zanim u ludzi pojawiła się świadomość, potrzebny był bardzo długi proces.

A zatem filmowy bunt maszyn, znany choćby z „Terminatora", nam nie grozi?

Filmy science fiction to są tak naprawdę historie o ludziach. Robot odgrywa w nich tylko rolę innego człowieka lub jakiejś grupy społecznej. Te filmy w praktyce traktują o klasie uciśnionych i uciskających. Bierzemy te przekazy zbyt dosłownie.

A czy powinniśmy obawiać się postępu technologicznego?

Przekonuje się nas, że nie ma odwrotu od robotyzacji, gospodarki 4.0, opartej na sztucznej inteligencji i internecie rzeczy. I być może faktycznie tak jest. Myślę jednak, że w tym kontekście ani hurraoptymizm, ani skrajny pesymizm nie są dobrymi postawami. Popkultura próbuje wykształcić w nas różnego rodzaju obawy względem postępu technologicznego, z kolei biznes i sektor IT cisną nas w drugą stronę. Tymczasem to wszystko nie jest tak jednoznaczne. Jeśli chodzi o automatyzację, tak naprawdę wciąż mało wiemy. Pokazują się kolejne raporty, które przewidują, jaki zawód będzie kolejny do „odstrzału" w efekcie robotyzacji. A to czyste spekulacje. Bo niby nic prostszego niż zastąpić kelnera w restauracji automatem, a jednak jakoś nie jest to popularny trend. Rozwój technologii i jego wpływ na otaczający nas świat to nie są takie proste trajektorie.

Czyli na razie nie powinniśmy się bać o utratę naszych miejsc pracy?

Z pewnością czeka nas transformacja rynku pracy, ale nie mówmy o tym, że staniemy się niepotrzebni. Takiej rewolucji raczej się nie spodziewam. Natomiast ewolucja na rynku pracy, której jesteśmy świadkami, będzie wymagała od nas nowych kompetencji. Nie może być tak, że wszyscy staną się bezrobotni, bo gospodarka potrzebuje siły nabywczej. Widzę raczej w przyszłości synergię między sztuczną inteligencją a człowiekiem.

Jest pani również ekspertem od tzw. wearables. Nie uważa pani, że to dziwne, że z jednej strony boimy się robotów, a z drugiej – dzięki tym technologiom ubieralnym – sami się do nich upodabniamy?

Zajmujemy się badaniem tych technologii na MIT. Chodzi o wszelkie sprzęty do pomiarów fizjologicznych, które użytkownik może stosować sam, czyli np. różne opaski na głowę, opaski na rękę, wyposażone w żyroskopy, akcelerometry, czujniki pulsu i sensory fal mózgowych. Ich wykorzystanie nie dziwi, bo takie technologie pozwalają określić użytkownikowi, w jakiej jest formie, jak się czuje.

Czy w przyszłości będziemy mieć urządzenia na sobie, czy w sobie? W niektórych kręgach furorę robi biohacking, a więc faktyczne integrowanie swojego organizmu z technologią, ulepszanie ciała.

Właściwie to nie wiem. Biohacking nie jest wcale nowym zjawiskiem. Ma już ze 20 lat, jak nie więcej. Ludzie na różne sposoby „hakowali" swoje ciała, choć teraz mają oczywiście więcej możliwości. To zawsze było zjawisko niszowe, z kategorii eksperymentów. Zwykły człowiek ma opór przed takimi rozwiązaniami, które naruszają cielesną integralność. Z drugiej strony trzeba powiedzieć, że kiedy byłaby potrzeba, zagrożenie życia lub zdrowia, z pewnością bylibyśmy skłonni wpuścić do naszego organizmu np. nanoroboty. A to realna perspektywa. Te mogą w przyszłości zastąpić chemioterapię i leczyć w sposób celowany wybrane narządy.

CV

Aleksandra Przegalińska – doktor filozofii UW, ekspert w dziedzinie sztucznej inteligencji. Adiunkt w Center for Research w Akademii Leona Koźmińskiego. Prowadzi badania w Massachusetts Institute of Technology w Bostonie. Absolwentka The New School for Social Research w Nowym Jorku.

Rz: Sztuczna inteligencja (AI) to dziś gorący temat. Na MIT w Bostonie pracuje pani nad kilkoma projektami z zakresu interakcji człowiek–maszyny. Badacie m.in. to, jak różnego rodzaju boty i humanoidy odbierane są przez ludzi. Jaki mamy więc stosunek do AI?

Skupiamy się na pracy nad sztuczną inteligencją, która ma charakter społeczny, przede wszystkim chodzi o tzw. roboty społeczne, a więc boty, chatboty czy właśnie humanoidy. Interesuje nas to jak budować takie maszyny, z którymi ludzie wchodzą w najlepsze interakcje, interakcje bezpieczne, w których czują się komfortowo. A wnioski? Generalnie podchodzimy do tematów sztucznej inteligencji z lękami. Oczywiście nie jest to też reguła. Może pana zaskoczę, ale kobiety zdecydowanie lepiej radzą sobie w relacjach z AI niż mężczyźni. W przypadku tzw. bramy kontaktu, jaką są boty, czy chatboty, ewidentnie było widać, że kobiety z takim wirtualnymi asystentami czy doradcami, jak ich się potocznie nazywa, potrafią rozmawiać i załatwiać sprawy lepiej niż mężczyźni. Nasze badania uzmysławiają, że one bardziej akceptują tego typu technologie przyszłości. Badaliśmy też zjawisko tzw. doliny niesamowitości. To hipoteza, która mówi o tym, że humanoidalne maszyny, choć podobne do nas, budzą nasz strach i obrzydzenie. Jeśli są zbyt ludzkie, zaczynamy się ich bać. Zamiast mieć pozytywne reakcje oparte na zaufaniu i sympatii, zaczynamy się stresować.

Pozostało 82% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie Ekonomiczne
Witold M. Orłowski: Gospodarka wciąż w strefie cienia
Opinie Ekonomiczne
Piotr Skwirowski: Nie czarne, ale już ciemne chmury nad kredytobiorcami
Ekonomia
Marek Ratajczak: Czy trzeba umoralnić człowieka ekonomicznego
Opinie Ekonomiczne
Krzysztof Adam Kowalczyk: Klęska władz monetarnych
Opinie Ekonomiczne
Andrzej Sławiński: Przepis na stagnację
Materiał Promocyjny
Wsparcie dla beneficjentów dotacji unijnych, w tym środków z KPO