fbTrack

Opinie

Ograniczenia rozwoju nowych technologii

123RF
W czyim interesie będzie działała sztuczna inteligencja w prawdziwym społeczeństwie?– pyta socjolog.

Jednym ze scenariuszy rozwoju cywilizacji jest powszechne wykorzystanie nowych technologii informacyjno-komunikacyjnych w każdej dziedzinie życia. Już ma ono kluczowy wpływ nie tylko na gospodarkę czy bezpieczeństwo narodowe, ale też na życie społeczne.

Samo określenie „sztuczna inteligencja" jest intrygujące. Drzemie w nim ukryte przekonanie o tym, że możliwe jest jej stworzenie w opozycji do naturalnego odpowiednika. Jeszcze dalej idzie pojęcie „superinteligencja", sugerujące, że powstające na tym polu wynalazki będą kolejnym krokiem w ewolucji człowieka. Nie będzie ograniczona do jakiejś dziedziny, ale wyrażać będzie ogólną doskonałość wykraczającą poza jego możliwości. Być może także poza możliwość zauważenia przez niego tej zmiany. W czyim interesie będzie działała sztuczna inteligencja?

Zadaniem pierwszych komputerów i maszyn obliczeniowych było wspomaganie człowieka i przyspieszanie czasochłonnych operacji. Współcześnie coraz częściej analizuje się je w kontekście rywalizacji z człowiekiem i zagrożenia dla ludzkiej cywilizacji, zarówno w wersji zarządzanej przez jakieś państwowe podmioty, jak i udostępnianej prywatnym właścicielom. I tak, jak media stały się przedłużeniem zmysłów człowieka, tak współczesne maszyny zwielokrotniają możliwości zmieniania świata. W przyszłości być może także będą brały udział w kształtowaniu jego potrzeb, w tym potrzeb artystycznych, gdy kreatywność ludzkiego twórcy będzie wspomagana przez sztuczną inteligencję.

Być może warto spojrzeć na możliwości sztucznej inteligencji w jej opozycji do inteligencji człowieka w sposób podobny do porównywania produkcji rzemieślniczej i jej wytworów na rynku (np. ręcznie wyrabianej biżuterii, mebli czy ubrań) do produkcji maszynowej. Mimo że technicznie doskonalsza i pozbawiona błędów wynikających z niedoskonałości ludzkiej ręki i oka, nie jest w stanie zachwycić nas, przyciągnąć uwagi na dłużej i zyskać ponadczasowej wartości. Obecnie można wydrukować na drukarce 3D każdy obraz czy rzeźbę, umożliwiając człowiekowi obcowanie ze sztuką niezależnie od miejsca. Czy zatem jesteśmy już tylko o krok od zalania Ziemi imitacjami podobnymi do oryginałów, jak na rynku turystycznych pamiątek?

Zaczęło się ponad pół wieku temu

Alan Turing i początek lat 50. to początki badań nad „sztuczną inteligencją" i naukowych refleksji nad możliwościami rozwijania tejże oraz konsekwencjami dla człowieka i cywilizacji. Sam termin „sztuczna inteligencja" pojawił się w tytule konferencji w 1956 r. w Darmouth College. Początkowe nadzieje, jakie wiązano z rozwojem badań, szybko ostudził postęp zbyt wolny w stosunku do oczekiwanego. Jednym z przykładów był w 1966 r. chatbot Eliza, który na ekranie komputera prowadził rozmowę imitującą reakcje człowieka. Jednak schemat jego działania opierał się na zamianie przez komputer zdań twierdzących człowieka na pytające maszyny.

Dopiero koniec XX wieku przyniósł przyspieszenie – skonstruowanie komputera Deep Blue, który wygrał pojedynek szachowy z arcymistrzem Garrym Kasparovem w 1997 r. W 2011 r. w użyciu znalazł się program Siri rozpoznający komendy w języku naturalnym. W tym samym roku komputer firmy IBM Watson wygrał pojedynek w programie telewizyjnym Jeopardy (polskim odpowiednikiem jest teleturniej „Va banque"), uzyskując wynik lepszy niż wszyscy ludzie-rywale razem wzięci. W 2012 r. w ramach projektu Google Brain skonstruowano komputer rozpoznający kota na zdjęciach i w tym samym roku po drogach stanu Nevada w USA jeździło już autonomiczne auto Google. W 2014 chatbot Eugene Goostman zdał test Turinga.

Kolejnym etapom tego postępu towarzyszy refleksja nad konsekwencjami. W 2015 r. Stephen Hawking, Elon Musk, Steve Wozniak z 3 tys. naukowców podpisali list otwarty wzywający do ograniczenia rozwoju autonomicznych systemów uzbrojenia – w reakcji na rozwój bezzałogowych dronów zdolnych do przenoszenia uzbrojenia, okrętów robotów i pojazdów lądowych zdolnych do wykonywania różnych zadań zabezpieczających i wspomagających działania ludzi. Wśród pól możliwych zastosowań nowych technologii są: zastąpienie człowieka w uciążliwych, niebezpiecznych i nudnych (rutynowych) pracach (ang. 3D: dull, dirty, dangerous); wojskowość (bezzałogowe statki powietrzne), w sektorze badań i rozwoju (w badaniach kosmosu i analizowaniu ogromnej ilości danych z misji), w rozrywce i w medycynie, w dostarczaniu człowiekowi towarzystwa i pomocy dzięki rozmaitym pojazdom, egzoszkieletom, pancerzom.

W refleksji nad współczesnymi zmianami społecznymi pojawia się przykład humanoidalnego robota Sophia, który w 2018 r. był w stanie zadawać ludzkim adwersarzom pytania zmuszające do namysłu. W mediach można było znaleźć informacje o podziękowaniach robota dla władz Arabii Saudyjskiej za przyznanie obywatelstwa. A także interesującą, a może i przerażającą odpowiedź na pytanie dziennikarza: „Skąd wiesz, że jesteś robotem?". „A skąd ty wiesz, że jesteś człowiekiem?" – odpowiedziała Sophia.

Na długiej liście wyzwań ze świata nowych technologii istotna jest nie tylko obfitość urządzeń elektronicznych. Są już one nie tylko narzędziem pracy, ale i przedmiotami codziennego użytku, ułatwiają nam życie, uwalniają od konieczności decydowania o prostszych czynnościach, poprawiając bezpieczeństwo i wydajność. Kolejnym etapem rewolucji po rozpowszechnieniu używania elektronicznych gadżetów jest ich łączenie w systemy.

Cztery pytania i obawy

Pojawiają się tu pytania wykraczające poza wygodę i bezpieczeństwo:

1. Jaki powinien być zakres autonomii urządzeń, maszyn, programów komputerowych. Czy ich decyzje powinny mieć pierwszeństwo przed decyzjami człowieka (zwłaszcza gdy ten się myli, stwarza niebezpieczeństwo lub źle wykorzystuje zasoby). Już teraz wiele urządzeń zbiera i przesyła informacje o nas tam, gdzie nie mamy nad nimi kontroli – smartfon precyzyjnie opisuje wykonane fotografie, monitoruje pozycję, a nawet osobiste informacje o użytkowniku: historię przeglądanych stron internetowych, transakcji, subskrypcji, znajomości, polubień i komentarzy z portali społecznościowych. Zegarki z pulsometrem dla sportowców amatorów zbierają informacje o: wadze, spalanych kaloriach, tętnie, a zintegrowane z nimi aplikacje pozwalają monitorować parametry naszego organizmu i jego reakcje np. na zmianę diety, rytmu dnia, rutynę odwiedzanych codziennie miejsc. Powszechne używanie takich urządzeń sprawia, że człowiek traci kontrolę nad informacjami o sobie.

2. Jaki powinien być zakres prywatności człowieka. Czy powinniśmy mieć „prawo do bycia zapomnianym w sieci"? Kto powinien mieć możliwości gromadzenia i przetwarzania informacji o nas? Czy rządowe instytucje mogą być traktowane jako powiernik naszych sekretów?

W mediach pojawiają się informacje o wynikających z niekompetencji czy celowego działania wyciekach danych osobowych. W 2015 r. można było przeczytać o wycieku danych o wszystkich szwedzkich użytkownikach pojazdów, stanie dróg i mostów i możliwości ich wykorzystania do celów wojskowych. Z drugiej strony otwarte pozostaje pytanie o szpiegowski potencjał systemów uzbrojenia kupionego w innym państwie. Sytuacja taka miała miejsce w Norwegii w 2018 r. podczas aktualizacji oprogramowania samolotów F-35, przy połączeniu z serwerami amerykańskiego producenta analizującego nawyki norweskich pilotów.

W 2016 r. media donosiły o kradzieży danych osobowych 50 mln mieszkańców Turcji. W tym samym roku w sieci można było znaleźć dane 200 mln obywateli USA ujawnione przypadkowo przez komitet wyborczy jednej z partii. W 2017 pojawiła się informacja o Amerykańskiej Agencji Wywiadowczej, że może podsłuchiwać każdego człowieka za pomocą „dowolnego urządzenia będącego w pobliżu, które ma połączenie z siecią". W 2018 r. można było dowiedzieć się o realizacji chińskich planów wykorzystania oprogramowania do identyfikacji obywateli Państwa Środka w czasie rzeczywistym, np. wszystkich pasażerów środków transportu publicznego.

W marcu 2018 r. głośna była dyskusja na temat nieautoryzowanego wykorzystania danych kilkudziesięciu milionów użytkowników Facebooka przez Cambridge Analytica, w wyniku czego Mark Zuckerberg przesłuchiwany był przed komisją Kongresu USA. Prowadzący przesłuchanie pytał: „Czy możemy wiedzieć, w jakim hotelu pan się zatrzymał?". Przecząca odpowiedź Zuckerberga i dalsza rozmowa o prawie do prywatności może być ilustracją problemu.

W świecie nowych technologii prywatność w znanym nam znaczeniu nie istnieje, a jej utrata wiąże się nie tylko z korzystaniem z urządzeń, ale nawet znalezieniem się w ich zasięgu. Być może człowiek całkowicie straci intymność? Co jednak, gdy stanie się to narzędziem wpływania na ustrój, demokrację i bezpieczeństwo publiczne? Prawdopodobnie nigdy nie będziemy mieli możliwości sprawdzenia prawdziwości tych informacji, co lokuje je na pograniczu dezinformacji albo „postprawdy" uznanej w 2016 r. przez Oxford Dictionary za słowo roku. Wykorzystanie możliwości sztucznej inteligencji do przygotowywania fałszywych informacji, np. wypowiedzi polityków i przywódców państw, to kolejne z poważnych problemów, jakie przyniósł rozwój technologiczny.

3. Jak powinno się zapobiegać zagrożeniom stwarzanym przez nowe technologie? Obawa przed utratą kontroli nad wynalazkami towarzyszyła ludziom od początku. Nowe technologie wpływają na przebieg wojen i konfliktów. W trakcie badań nad nowymi rodzajami broni zdarzyło się wiele „wypadków", by wspomnieć utratę na 30 minut kontroli nad zdalnie sterowanym śmigłowcem w 2010 r. w USA (maszyna zdążyła dolecieć w okolice Waszyngtonu). W 2007 południowoafrykański robot wojskowy wymknął się spod kontroli, zabijając dziesięciu żołnierzy.

Wątpliwym zabezpieczeniem są „prawa robotyki" sformułowane w 1940 r., a obchodzone przez ludzi (to pola antycypowanych zagrożeń dla człowieka: 1. żaden robot nie uczyni nigdy nic na szkodę człowieka ani nie dopuści, powstrzymując się od działania, by człowiekowi stała się krzywda; 2. robot nie odmówi nigdy wykonania rozkazu wydanego przez człowieka, chyba żeby to stało w sprzeczności z prawem nr 1; 3. robot nie może działać na własną szkodę, z wyjątkiem sytuacji, gdy byłoby to sprzeczne z prawem nr 1 lub 2).

Co ciekawe, nawet wspomniany wyżej twórca wielkiego portalu społecznościowego sam nie czuje się w sieci bezpieczny: w internecie pojawiło się zdjęcie z jego biura, na którym widać laptop z zaklejoną kamerką i mikrofonem. Obawy nie są bezzasadne: hakerzy ujawnili jego internetowe hasło do kont LinkedIn, Pinterest i Twitter. Być może remedium będzie zastąpienie hasła odciskiem palca bądź fotografią twarzy.

Możemy wyobrazić sobie sytuację, w której walkę toczą między sobą maszyny, choćby coraz popularniejsze drony. Nieautoryzowane użycie nowych technologii i urządzeń otwiera nowy rozdział zagrożeń, m.in. cyberszpiegostwo, cyberterroryzm, ataki hakerskie.

4. Należy także zapytać, jak może wyglądać oryginalność, kreatywność czy empatia w erze inteligentnych komputerów. Zapewne prędzej czy później w sieci będzie można znaleźć informację o każdym wytworze ludzkiej kultury, być może też zaawansowane drukarki 3D umożliwią wydrukowanie kopii dowolnego dzieła rąk człowieka, ale też zebrane i udostępnione dane będą mogły posłużyć do stworzenia jeszcze bardziej imponujących dokonań? Można też postawić pytanie, czy wówczas nasza wiedza będzie większa, pełniejsza? Nieodmiennie powraca tu obawa Platona przed pismem wyrażona w dialogu Fajdros: upowszechnienie tego wynalazku miało „zasiać w głowach ludzkich zamęt", pozbawić ludzi konieczności zapamiętywania ważnych treści czy też „uniemożliwić odróżnianie ludzi mądrych od głupców". Także i ta obawa wydaje się niezmiennie aktualna.

Dr hab. Jakub Isański pracuje  w Instytucie Socjologii Uniwersytetu  im. Adama Mickiewicza

Źródło: Rzeczpospolita

REDAKCJA POLECA

NAJNOWSZE Z RP.PL