Krzysztof Izdebski: Nie nadążamy za rozwojem sztucznej inteligencji

Nadmierne ograniczanie dostępu do danych może zmniejszyć bezpieczeństwo państwa – mówi Krzysztof Izdebski, prawnik, ekspert Fundacji Batorego.

Publikacja: 17.04.2023 03:00

Krzysztof Izdebski: Nie nadążamy za rozwojem sztucznej inteligencji

Foto: Rzeczpospolita/ Robert Gardziński

FBI aresztowało 21-letniego żołnierza amerykańskich sił powietrznych, który opublikował tajne dokumenty w internetowym komunikatorze Discord – podobno po to, żeby zaimponować znajomym. Jak mogło do tego dojść?

Zawsze jest tak, że najsłabszym ogniwem w procedurach bezpieczeństwa jest człowiek. Wynoszenie danych może być spowodowane dwoma czynnikami – zwykłym szpiegostwem albo czystą głupotą. Z doniesień medialnych wynika, że raczej jest to głupota, ale nie możemy wykluczyć, że służby amerykańskie wolą prezentować sprawę właśnie w taki sposób. Tzn. przedstawić młodego żołnierza, który chciał zaimponować swoim kolegom. Ale to i tak źle świadczy o armii amerykańskiej, która dopuszcza do istotnych tajemnic niekompetentne osoby.

Czytaj więcej

Czy Stanom Zjednoczonym można jeszcze wierzyć?

Czy dbanie o bezpieczeństwo i podnoszenie jakości systemu zabezpieczeń nie spowoduje, że społeczeństwo niczego ważnego się już nie dowie?

Taki trend obserwujemy od 2001 r., czyli od ataku na WTC. Bardzo dużo praw zostało wtedy ograniczonych, nie tylko dostęp do informacji, ale również prawo do prywatności. W pierwszych dniach wojny w Ukrainie zdecydowano się na wyłączenie wielu interesujących baz danych, np. krajowego rejestru sądowego. Eksperci, którzy zajmują się zwalczaniem korupcji i kwestiami sankcji narzekali, że rząd odciął ich od możliwości śledzenia tego, w jaki sposób działa rosyjski kapitał w Ukrainie. Uważa się, że nadmierne ograniczanie dostępu do danych może zmniejszyć bezpieczeństwo państwa. Za każdym razem trzeba ważyć informacje, a nie zakładać od razu, że pewne informacje nie będą udostępnianie.

Czy nowe technologie, jak ChatGPT, mogą być instrumentem do pozyskiwania informacji poufnych?

ChatGPT niesie ze sobą wiele zagrożeń dla prywatności. Stąd decyzja włoskiego urzędu danych osobowych, żeby czasowo wyłączyć dostęp do ChatuGPT. Tego typu systemy wydają się skomplikowane, ale tak naprawdę bazują na danych, do których mają dostęp. Jeżeli wrażliwe dane dla bezpieczeństwa państwa nie trafiają do ogólnie dostępnych baz danych, to wtedy jesteśmy bezpieczni.

Czasami ChatGPT zwyczajnie zmyśla i tworzy informacje, które nie są prawdziwe, to sprawia, że zagadnienie bezpieczeństwa jeszcze bardziej się komplikuje.

ChatGPT nie pokazuje nam, na podstawie jakich baz danych stworzył swoją odpowiedź. Kwestia wiarygodności jest bardzo istotna i łączy się z brakiem krytycznego myślenia. Korzystając z tradycyjnych wyszukiwarek, też mamy problem z oceną tego, czy to, co widzimy, jest prawdziwe. Często zakładamy, że coś jest prawdą i nie kwestionujemy pewnych informacji. To pomaga w szerzeniu się dezinformacji i sianiu zamętu. Dlatego trzeba edukować całe społeczeństwo.

Może trzeba zacząć od polityków? Bo tylko wtedy będą oni w stanie stworzyć odpowiednie prawo.

Zgadzam się, ale uważam, że prawo nie jest odpowiedzią na wszystko. Mamy np. przypadek technologii, która pozwala na rozpoznawanie twarzy. Jest ona dużym problemem, ponieważ można jej używać przeciwko protestującym.

Właśnie tej metody używa FSB w Moskwie przeciwko opozycji. System rozpoznaje ich twarze i śledzi np. w metrze.

Takiej metodę po raz pierwszy użyto przy okazji protestów w Hongkongu. Widzieliśmy wtedy, że protestujący niszczyli kamery, żeby nie dać się zidentyfikować. Nie jest to tylko problem państw autorytarnych. Identyczną sytuację mieliśmy w USA i Wielkiej Brytanii. W Wielkiej Brytanii udało się – sądownie – zatrzymać korzystanie z tego rodzaju oprogramowania, ale nie przeszkodziło to politykom dalej wykorzystywać te programy. Regulacje są niezbędne. Prace nad prawem dotyczącym sztucznej inteligencji – na poziomie Unii Europejskiej – są bardzo ciekawe. Niestety nie zawsze nadążamy nad rozwojem technologii tak jak w przypadku ChatuGPT. Nie jestem pewien, czy samo prawo coś zmieni. Potrzebny jest przede wszystkim zdrowy rozsądek i zaufanie do własnych służb. Jedna z teorii dotyczących wycieku maili ministra Dworczyka mówiła o tym, że politycy bardziej ufali prywatnym operatorom skrzynek pocztowych niż państwowemu systemowi.

współpraca Karol Ikonowicz

FBI aresztowało 21-letniego żołnierza amerykańskich sił powietrznych, który opublikował tajne dokumenty w internetowym komunikatorze Discord – podobno po to, żeby zaimponować znajomym. Jak mogło do tego dojść?

Zawsze jest tak, że najsłabszym ogniwem w procedurach bezpieczeństwa jest człowiek. Wynoszenie danych może być spowodowane dwoma czynnikami – zwykłym szpiegostwem albo czystą głupotą. Z doniesień medialnych wynika, że raczej jest to głupota, ale nie możemy wykluczyć, że służby amerykańskie wolą prezentować sprawę właśnie w taki sposób. Tzn. przedstawić młodego żołnierza, który chciał zaimponować swoim kolegom. Ale to i tak źle świadczy o armii amerykańskiej, która dopuszcza do istotnych tajemnic niekompetentne osoby.

Pozostało 83% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Społeczeństwo
Co z Ukraińcami, których Kijów widziałby w wojsku? Urząd ds. cudzoziemców tłumaczy
Społeczeństwo
Groził, wyzywał i wybijał szyby. Policja nie widziała podstaw do interwencji
Społeczeństwo
W Warszawie wyją syreny alarmowe? Wyjaśniamy dlaczego
Społeczeństwo
Sondaż: Połowa Polaków za małżeństwami par jednopłciowych. Co z adopcją?
Społeczeństwo
Ponad połowa Polaków nie chce zakazu sprzedaży alkoholu na stacjach