Dariusz Tarabasz, Krzysztof Czyżewski: Nie dawać szans algorytmowi

Wybieranie przestępstw przez AI może być powszechne.

Publikacja: 19.07.2022 12:00

Dariusz Tarabasz, Krzysztof Czyżewski: Nie dawać szans algorytmowi

Foto: Adobe Stock

W 1942 r. amerykański pisarz Isaac Asimov w opowiadaniu „Zabawa w berka” sformułował przykazania dla robotów. Przeszły one do historii jako podstawy etyki sztucznej inteligencji. Pierwsze z nich to: Robot nie może skrzywdzić człowieka, ani też przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. Dzisiaj niestety często celem sztucznej inteligencji jest właśnie wyrządzenie krzywdy człowiekowi, i to poprzez wkraczanie w najbardziej intymne sfery życia – sferę seksualną.

Z raportu Europolu wynika, że 96 proc. deepfake to zmanipulowana pornografia. Wizerunek ofiary jest przerabiany tak, aby sprawiał wrażenie, że bierze udział w akcie seksualnym. W grudniu 2020 r. liczbę tego rodzaju fałszerstw dostępnych w sieci szacowano na 85 047 tys. Przy czym liczba ta co sześć miesięcy ulegała podwojeniu. Coraz częściej wykorzystywany jest wizerunek przypadkowych osób. W 2020 r. został wykryty algorytm AI, który tworzył nagie zdjęcia kobiet na podstawie fotografii zamieszczonych przez nie w mediach społecznościowych. Złośliwy bot działał głównie w Europie Wschodniej . Szacuje się, że kilkaset tysięcy kobiet może nie być świadomych, jak wykorzystano ich wizerunek.

Czytaj więcej

Dariusz Tarabasz, Krzysztof Czyżewski: Elvis wiecznie żywy

Kogo i jak

Prawo karne daje możliwość pozbawienia człowieka najcenniejszego dobra, jakie posiada, czyli wolności (a w niektórych państwach nawet życia). Z tego względu musi być rozumiane ściśle. Przestępstwo musi być określone w ustawie. Z tego powodu już co najmniej kilka stanów, jak chociażby Maryland i Wirginia zmieniło swoje prawo karne, aby wyjść naprzeciw nowym wyzwaniom. W podobnym kierunku zmierza brytyjski proces legislacyjny. W Polsce natomiast kolejne nowelizacje skupiają się na problemie obrazy uczuć religijnych, a wyzwania, jakie przynosi nowa technologia, pozostają niezauważone.

Do odpowiedzialności karnej można pociągnąć jedynie osobę fizyczną, która dopuściła się przestępstwa. Algorytmy AI działają w dużym stopniu autonomicznie. Problemem jest więc, kogo i jak ukarać. Instytucja pomocnictwa na gruncie prawa karnego ma swoje ograniczenia, które mogą okazać się istotne, gdy przestępstwo „popełnia” algorytm. Nie można być pomocnikiem maszyny. Karany jest czyn człowieka i to jemu można pomagać. Co więcej, nawet najlepiej skonstruowany algorytm może z czasem wkroczyć na drogę przestępstwa. Twórca nie może odpowiadać za coś, czego nie mógł przewidzieć.

Prawo karne dla maszyn

Ktoś mógłby powiedzieć, że przecież kodeks karny pełny jest przepisów zapewniających ochronę intymności. Jak się jednak tak dokładnie przyjrzeć poszczególnym przesłankom ich zastosowania, to okaże się, że wiele sytuacji z obszaru AI umknie penalizacji. Albo to nie będzie „utrwalanie wizerunku”, o którym mowa w art. 191a k.k., albo nie będzie „rozpowszechniania”, o którym dalej mówi ten przepis. Niektóre przepisy też, w kształcie, w jakim obowiązują, mogą wręcz wskazywać na świadome niepenalizowanie określonych groźnych zachowań w obszarze deepfake. Do takich wniosków można dojść choćby po lekturze art. 202 §4b k.k., który wprost mówi o przetworzonym wizerunku, ale tylko małoletniego. Skoro zatem tak wytworzone pojęcie nie występuje nigdzie indziej w kodeksie, to oznacza, że żaden inny przetworzony wizerunek nie będzie znamieniem przestępstwa.

Coraz częściej postuluje się stworzenie swego rodzaju dodatkowego prawa karnego dla maszyn. Prawo to z założenia byłoby oparte na wspomnianych we wstępie zasadach etycznych. W praktyce mogłyby to polegać na administracyjnych nakazach wprowadzania określonych rozwiązań w kodzie źródłowym oraz stosowania negatywnych bodźców. Mamy jednak do czynienia ze sztuczną, a jednak inteligencją. Z czasem więc algorytm może znaleźć sposób na obejście ograniczeń. Stworzony przez Microsoft chat bot Toy w miarę upływu czasu zamiast bardziej elokwentny stawał się coraz bardziej agresywny. Eksperymenty pokazują, że algorytmy, podobnie jak ludzie, stawały się bardziej agresywne, jeżeli zwiększało to szanse wygrania rywalizacji. Działały więc do bólu racjonalnie.

Czy dla AI powinniśmy być bardziej surowi niż dla ludzi? Podobnie jak ludzie, AI uczy się na błędach, wyciągając z nich wnioski. Siłą rzeczy prędzej czy później musi przekroczyć pewną granicę, żeby dowiedzieć się, gdzie ona leży. Algorytmy nie rozumieją kontekstu. Po to, żeby zrozumieć, że jest różnica między kobiecą piersią ukazaną podczas karmienia dziecka a tą samą piersią podczas stosunku, algorytm musi wielokrotnie popełnić błąd. Jeżeli po pierwszym naruszeniu likwidujemy algorytm, odbieramy mu szanse na jego samodoskonalenie. Pryska więc cały sens i magia AI. Przyjmując, że karana jest dopiero recydywa, zakładamy, że jednej osobie krzywdę można wyrządzić, a karane jest dopiero powtórzenie tego samego błędu. De facto poszlibyśmy w kierunku rosyjskiego prawa, gdzie jedno pobicie współmałżonka jeszcze nie oznacza przemocy. Trzeba się liczyć z tym, że algorytm z czasem nauczy się odczytywać oczekiwania odbiorców. Zamiast więc tworzyć sztukę zacznie tworzyć pornografię, bo takie będą oczekiwania mas i tak łatwiej osiągnie cel (np. liczbę wyświetleń).

Jeżeli więc miarą inteligencji jest optymalizacja wysiłku i szans na wygraną, wybieranie „kariery przestępczej” przez AI może być dość powszechne. W końcu nie pozostanie nic innego jak tylko odłączenie jej od zasilania. Pytanie tylko czy kara ta będzie wymierzana. Brytyjski pisarz David Langford, podszedł do tematu bardziej pragmatycznie niż Isaac Asimov. Według niego Robot będzie chronił własną egzystencję przy pomocy broni, ponieważ robot jest cholernie drogi. W ten sposób dotknął sedna problemu bo czy będzie opłacać się zniszczyć drogi algorytm tylko dlatego, że zaczął tworzyć pornografię?

Autorzy są adwokatami z Czyżewscy kancelaria adwokacka

W 1942 r. amerykański pisarz Isaac Asimov w opowiadaniu „Zabawa w berka” sformułował przykazania dla robotów. Przeszły one do historii jako podstawy etyki sztucznej inteligencji. Pierwsze z nich to: Robot nie może skrzywdzić człowieka, ani też przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. Dzisiaj niestety często celem sztucznej inteligencji jest właśnie wyrządzenie krzywdy człowiekowi, i to poprzez wkraczanie w najbardziej intymne sfery życia – sferę seksualną.

Pozostało 92% artykułu
Rzecz o prawie
Łukasz Guza: Granice wolności słowa
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Rzecz o prawie
Jacek Dubois: Nic się nie stało
Rzecz o prawie
Mikołaj Małecki: Policjant zawinił, bandziora powiesili
Rzecz o prawie
Joanna Parafianowicz: Młodszy asystent, czyli kto?
Materiał Promocyjny
Do 300 zł na święta dla rodziców i dzieci od Banku Pekao
Rzecz o prawie
Jakub Sewerynik: Wybory polityczne i religijne