fbTrack
REKLAMA
REKLAMA

Plus Minus

Demon sztucznej inteligencji

AFP
Niekontrolowany rozwój technologii wywołuje gęsią skórkę na plecach nie tylko prostaczków, którzy nie rozumieją cyfrowego świata. Myślące maszyny budzą też obawy wybitnych naukowców. Nie bez powodu.

Ten problem znaliśmy dotąd tylko z filmów. Sieć Skynet z „Terminatora" zyskała samoświadomość i wyrwała się spod kontroli człowieka, doprowadzając do zagłady nuklearnej i wojny ludzi z maszynami. W „Ja, robot" (luźno bazującym na wspaniałej prozie Isaaca Asimova) superkomputer V.I.K.I. uznaje, że chronić nas, ludzi, można tylko, odbierając wolność decydowania o sobie, i w rezultacie oddaje nas w opiekę terroryzujących wszystkich robotów.

Nic przyjemnego, ale to na szczęście tylko filmy science fiction. W dodatku niemające potwierdzenia w naukowej rzeczywistości. A przynajmniej tak nam się teraz wydaje

„Istnieje powszechna zgoda co do tego, że tempo rozwoju sztucznej inteligencji przyspiesza, a wpływ tej technologii na społeczeństwo zapewne będzie również rósł" – napisali właśnie naukowcy w otwartym liście, w którym nawołują do zwiększenie kontroli nad badaniami nad myślącymi maszynami. Pod listem podpisało się kilkudziesięciu wybitnych specjalistów, m.in. fizyk Stephen Hawking, noblista Frank Wilczek czy przedsiębiorca i miliarder Elon Musk. Stawiają sprawę jasno: „Musimy mieć pewność, że coraz doskonalsze systemy sztucznej inteligencji będą robić to, czego od nich chcemy".

Bełkot i głupoty

Bo systemy sztucznej inteligencji to nie przyszłość, ale już teraźniejszość. Określenie sztuczna inteligencja (Artificial Intelligence – AI) wydaje się nieco na wyrost, bo maszyny nie potrafią rozumować w sposób, w jaki my to czynimy. Ale uzyskują dokładnie ten sam końcowy rezultat, podejmując decyzje na podstawie analizy ogromnej ilości danych i w zgodzie z odpowiednimi algorytmami. I te decyzje są lepsze i szybsze niż nasze.

Systemy eksperckie w finansach, prawie, ubezpieczeniach, medycynie już działają. Doradzają ludziom przy podejmowaniu decyzji. Ale rozwój komputeryzacji sprawi, że coraz częściej z procesu decyzyjnego człowiek będzie eliminowany. Niemożliwe?

Jeszcze w 1933 roku Ernest Rutherford, najwybitniejszy fizyk swoich czasów, laureat Nagrody Nobla, uznawany za ojca fizyki jądrowej, odkrywca jądra atomowego, mówił: „Nie powinniśmy oczekiwać uzyskania energii z atomu. To bardzo nieefektywna metoda, a każdy, kto mówi o atomie jako źródle energii, gada głupoty".

Richard Woolley – wybitny brytyjski astronom – w tym samym czasie, gdy Rutherford krytykował pomysł energii atomowej, twierdził, że „cała procedura wystrzeliwania rakiet w kosmos prezentuje trudności tak fundamentalnej natury, że musimy cały koncept odrzucić jako niewykonalny". A dużo później w wywiadzie dla „Time'a" w 1956 roku doprecyzował: „Gadanie o podróżach kosmicznych to bełkot. Po co ktoś miałby łożyć na to pieniądze. Co by nam to dało".

Rok później Rosjanie wystrzelili Sputnika. A 13 lat później Neil Armstrong postawił stopę na Księżycu.

Dlatego – argumentują zajmujący się nowymi technologiami naukowcy zebrani przez Future Life Institute – nie ma co liczyć, że sztuczna inteligencja pozostanie w domenie science fiction. Trzeba już teraz pomyśleć nie tylko o rozwoju AI, ale również o sposobach jej kontroli. Innymi słowy, w elegancki i naukowy sposób radzą, jak nie dopuścić do powstania Skynetu.

Niektóre z przedstawianych w dokumentach Future Life Institute problemów dotykają nas już teraz. Na przykład – jak zachować prywatność w świecie, gdzie wszelkie dane o nas są analizowane przez systemy eksperckie? Na tej podstawie komputery wyciągają wnioski o naszych poglądach, stanie zdrowia, preferencjach, nałogach, skłonności do zakupów. Komplet informacji trafia do ubezpieczyciela, pracodawcy, reklamodawcy wraz z odpowiednimi rekomendacjami, w bezpośredni sposób wpływając na nasze życie.

Albo: jeżeli w pełni autonomiczny samochód, a takie auta już jeżdżą po drogach, spowoduje wypadek, kto będzie za niego odpowiedzialny? Właściciel samochodu? Firma, która go wyprodukowała? A może programista? Inny problem z tej samej dziedziny: jak system sztucznej inteligencji się zachowa, mając do wyboru niewielkie ryzyko uszkodzenia ciała człowieka kontra prawie pewność dużej straty materialnej. Lub inaczej – czy samochód bez kierowcy w awaryjnej sytuacji zaryzykuje zdrowie pasażerów, uderzając w latarnię, czy chroniąc ich, wybierze uderzenie w pieszego?

Rozdziobią nas czipy i drony

Są również rozważania jeszcze bardziej posępne. Zautomatyzowana broń to również nie przyszłość, lecz teraźniejszość. Wojskowe drony wymagają na razie człowieka do podjęcia decyzji o otwarciu ognia. Ale już uzbrojone roboty strażnicy mogą działać samodzielnie. Czy możliwa jest wojna, na której to maszyny samodzielnie podejmą decyzję o ataku? Czy do pomyślenia jest, by roboty postępowały humanitarnie? I wreszcie, czy samodzielnie działające uzbrojone maszyny zmniejszą zagrożenie konfliktem zbrojnym, czy wręcz przeciwnie – algorytm nakaże pociągnąć za spust szybciej, niż zrobiłby to człowiek?

Niezbyt różowo prezentuje się też przyszłość rynku pracy. Automatyzacja zadań oznacza, że ludzie po prostu przestaną być potrzebni. Tylko pozornie ten scenariusz przerabialiśmy już przy okazji rewolucji przemysłowej. Teraz maszyny nie tylko wyręczą nas w pracy fizycznej, ale również intelektualnej. Wspomniane finanse, ubezpieczenia, wiele rynków konsumenckich ucierpi (jeżeli chodzi o zatrudnienie) z powodu inwazji systemów sztucznej inteligencji.

„Niektórzy przekonują, że wdrożenie systemów AI znacząco podniesie zamożność całych społeczeństw" – piszą naukowcy. „Jednakże coraz większa automatyzacja może pogłębić nierówności w dystrybucji dochodów. Konieczne będą zmiany w systemach podatkowych, wysokości płacy minimalnej oraz systemie ubezpieczeń społecznych. Historia pokazuje, że mogą istnieć całe grupy społeczne niepotrzebujące pracy do zachowania bezpieczeństwa ekonomicznego – arystokracja w przeszłości czy obecnie obywatele Kataru. Ale bezrobocie to nie to samo co wolny czas, wiemy, że istnieje związek między brakiem pracy a brakiem pewności siebie, poczuciem braku szczęścia czy izolacją w społeczeństwie".

Oddzielnym problemem jest zachowanie kontroli nad systemami AI, przed którymi twórca postawił konkretne zadanie. Sztuczna inteligencja podejmie wszelki kroki, aby to zadanie wykonać, omijając jednocześnie ewentualne przeszkody uniemożliwiające zrealizowanie celu. A co, jeśli będziemy chcieli system przeprogramować czy wręcz wyłączyć? Maszyna uzna takie działania za uniemożliwiające wykonanie zadania. Co wtedy? Czy zachowa się jak komputer HAL 9000 z „2001: Odyseja kosmiczna" Arthura C. Clarka i usunie przeszkadzających mu ludzi?

Problem utraty kontroli nad maszynami jest jednym z kilku, którymi zajmują się naukowcy uruchomionego w grudniu ubiegłego roku przez Uniwersytet Stanforda programu AI100 (One Hundred Year Study on Artificial Intelligence). „Pewnego dnia możemy utracić kontrolę nad systemami AI z powodu powstania superinteligencji, która nie będzie stosowała się do życzeń ludzi. I taki potężny system będzie już zagrożeniem dla naszej cywilizacji" – uważa pomysłodawca tych badań Eric Horvitz, wybitny specjalista zajmujący się komputerową inteligencją, pracujący obecnie dla Microsoftu.

Bardziej obrazowo przedstawił sprawę Elon Musk, który przecież dorobił się wielkich pieniędzy na nowych technologiach. – Razem ze sztuczną inteligencją przyzywamy demona – mówił podczas niedawnego spotkania ze studentami. – Pamiętacie te wszystkie historie z facetem, święconą wodą i pentagramem. Był przekonany, że potrafi kontrolować demona. A zawsze się okazywało, że to nie działało.

Źródło: Rzeczpospolita
REKLAMA
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA