Karol Trzaska: Sztuczna inteligencja może być zagrożeniem dla każdego z nas

Unia Europejska dąży do tego, aby nowe technologie, a w szczególności sztuczna inteligencja, były wykorzystywane w sposób maksymalnie etyczny, co pozwoliłoby ograniczyć ich negatywny wpływ zarówno na życie jednostki, jak i na całe społeczeństwa.

Publikacja: 23.11.2023 13:26

Karol Trzaska: Sztuczna inteligencja może być zagrożeniem dla każdego z nas

Foto: stock.adobe.com

Sztuczna inteligencja jest wszechobecna. Negatywne skutki jej działania jako jedni z pierwszych odczuli artyści. Trenowana na gigantycznych zbiorach danych narusza ona interesy wielu osób, choćby autorów książek. 28 czerwca 2023 roku kancelaria prawna Joseph Saveri Law Firm poinformowała o złożeniu pozwu w imieniu dwóch pisarzy – Paula Tremblaya i Mony Awad – przeciwko firmie OpenAI. Uzasadniają oni pozew tym, że twórczość ich klientów została bezprawnie wykorzystana do szkolenia ChatGPT. Wszystko miało odbyć się bez ich zgody i bez otrzymania jakiejkolwiek rekompensaty.

Artyści staną się zbędni

Zdolność AI do wykorzystywania treści na masową skalę prowadzi nie tylko do naruszania praw autorów, ale również zagraża ich przyszłej płynności finansowej. AI wytrenowane na nielegalnie pozyskanych danych może doprowadzić do tego, że artyści dla firm staną się zbędni. Firmy będą bowiem  mogły samodzielnie wygenerować treści w stylu wypracowanym przez konkretnych artystów, na co poświęcili przecież lata ciężkiej pracy.

Czytaj więcej

Sztuczna inteligencja wykorzystując lekarzy manipuluje konsumentami

Znaczącym problemem jest także skala uprzedzeń systemów sztucznej inteligencji opartych na gigantycznych zbiorach danych, szczególnie na Internecie. Według badaczy, uprzedzenia występujące w danych wykorzystanych do szkoleń mogą bezpośrednio prowadzić do generowania treści opartych na tych uprzedzeniach czy stereotypach.  Nietrudno sobie wyobrazić jak takie systemy mogą wpłynąć negatywnie na ludzkie życie. Możemy spodziewać się, że w przyszłości pojawią się, przykładowo, systemy używane przez organy państwa do przyspieszania podejmowania decyzji dotyczących jednostek. Zakładając, że taki system został wyszkolony na treściach zawierających uprzedzenia wobec osób czarnoskórych, mógłby on stosunkowo częściej odmawiać udzielenia prawa do wjazdu do państwa członkowskiego UE takim osobom.

Przestępcy będą bezkarni

W tym zakresie AI tworzy dodatkowe ryzyko wprowadzenia niesprawiedliwych praktyk przez podmioty państwowe (przy wykorzystaniu analogicznych systemów profilowania również przez podmioty prywatne), które w bezpośredni sposób mogą prowadzić do pogłębienia nierówności i marginalizacji określonych grup społecznych.

Czytaj więcej

Brytyjskich kierowców zastąpią automatycznie sterowane ciężarówki

Wraz z rozwojem obrazów generowanych sztuczną inteligencją, pojawia się coraz więcej materiałów ukazujących nagość zarówno dorosłych, jak i dzieci. Internet Watch Foundation wskazuje na zwiększoną liczbę treści pedofilskich wygenerowanych przez AI. Treści te są tak realistyczne, że wiele z nich jest już prawie nieodróżnialne od prawdziwych zdjęć. I choć część polskich polityków prawdopodobnie będzie usprawiedliwiać tworzenie takich materiałów brakiem pokrzywdzonych dzieci, to generowane algorytmami materiały pedofilskie będą raczej normalizować to zjawisko. Co gorsze, mogą one utrudnić odnajdywanie prawdziwych pedofilskich zdjęć, a tym samym zmniejszyć szansę skazania posiadaczy takich materiałów. Dan Sexton, Chief Technology Office w IWF, jasno zaznaczył, że jeśli obrazy AI przedstawiające seksualne wykorzystywanie dzieci staną się nie do odróżnienia od rzeczywistych obrazów, istnieje niebezpieczeństwo, że analitycy IWF mogą tracić cenny czas na próby zidentyfikowania i pomoc organom ścigania w ochronie dzieci, które nie istnieją.

Nagość wbrew naszej woli

Zagrożenie tworzenia treści pornograficznych przy pomocy AI nie dotyczy tylko sytuacji, gdzie powstają treści przedstawiające nieistniejących ludzi. Coraz większym problemem są materiały pornograficzne modyfikowane w taki sposób, aby przedstawiały istniejących ludzi, zwane deep fake’ami. Na początku tego roku wybuchł skandal w serwisie streamingowym Twitch, którego przyczyną był zakup przez streamera Atrioca nagrań deep fake ukazujących prawdziwe kobiety, będące również streamerkami.

Czytaj więcej

Niesamowity zwrot akcji. Altman wraca do OpenAI, giganta sztucznej inteligencji

W tym przypadku AI doprowadziło do naruszenia poczucia godności i poszanowania wizerunku konkretnych osób. QTCinderella, jedna z poszkodowanych streamerek, napisała emocjonalnego tweeta: Chcę krzyczeć. Przestańcie. Wszyscy k... przestańcie. Przestańcie to rozpowszechniać. Przestańcie to reklamować. Przestańcie. Bycie widzianym „nago” wbrew swojej woli nie powinno być częścią tej pracy. Dziękuję wszystkim męskim „dziennikarzom” internetowym, którzy relacjonują tę sprawę. J... frajerzy..

Każdy nas może stać się bohaterem skandalu

Wykorzystanie czyjegoś wizerunku bez zgody do tworzenia treści pornograficznych może negatywnie wpłynąć na życie tej osoby niszcząc jej psychikę, relacje towarzyskie czy poczucie bezpieczeństwa. I to nie tylko w przypadku znanych osób.

Wyobraź sobie sytuację, że otrzymujesz od znajomego nagranie, gdzie widzisz siebie w produkcji dla dorosłych. Takie nagranie może zostać szybko przesłane za pośrednictwem mediów społecznościowych do wszystkich twoich znajomych. Ty wiesz, że to nagranie jest fałszywe, ale oglądające je osoby - niekoniecznie. W konsekwencji stajesz się obiektem drwin i pośmiewiskiem. Nawet jeśli uda ci się udowodnić i w jakiś sposób poinformować wszystkich, którzy o tym usłyszeli, że nagranie jest fałszywe i nie przedstawia ciebie, to prawdopodobnie jeszcze przez długi czas będziesz musiał zmagać się ze złośliwymi komentarzami i oczernianiem. Wystarczy jedno zdjęcie opublikowane w mediach społecznościowych i już można wygenerować taki materiał pornograficzny. Z tego względu ryzyko nie dotyczy wyłącznie osób sławnych, lecz właściwie każdego z nas..

Sztuczna inteligencja powie ci jak głosować

Największe firmy przechowują gigantyczne zbiory danych o każdym korzystającym z ich usług. W zasadzie niemożliwe jest uciec od sprofilowania przez firmy technologiczne. Dzięki posiadaniu danych przedsiębiorstwa mogą w znaczący sposób wpływać na nasze zachowanie np. podczas zakupów.

Czytaj więcej

Koniec z pijanymi za kółkiem. W przyszłości zajmie się tym sztuczna inteligencja

Jednak zagrożenia wypływające z profilowania nie dotyczą wyłącznie tego jakie buty kupimy. Wpływ na wybory, które dokonujemy jest również zagrożeniem dla demokracji czy ustroju społecznego. Profilowania politycznego i jego konsekwencji doświadczyli Amerykanie za sprawą firmy Cambridge Analytica w wyborach prezydenckich w 2016 roku. Dane nawet 87 milionów użytkowników (pozyskane nielegalnie i bez ich zgody) zostały wykorzystane do psychologicznego targetowania i wyświetlania im reklam politycznych, które miały doprowadzić do zagłosowanie przez nich na Donalda Trumpa. Jak wiemy, Trump te wybory wygrał. I choć ciężko jest stwierdzić czy profilowanie przesądziło o jego wygranej, to z pewnością można powiedzieć , że miało w tym znaczący udział.

AI ACT - Unia chce zapewnić o rozwiązaniu problemu

Z zaproponowanego przez Wspólnotę AI Act wynika konieczność wprowadzenia przepisów zapewniających, że Europejczycy będą korzystali z technologii opracowanych zgodnie z unijnymi wartościami.

W tym akcie Unia wskazuje na istotność wprowadzenia tego prawa ze względu na ochronę praw podstawowych zapisanych w Karcie praw podstawowych Unii Europejskiej.

Czytaj więcej

Prawo dla sztucznej inteligencji. UE przegrywa wyścig z USA

Autorzy rozporządzenia w szczególności odwołują się tu do obligatoryjnej ochrony godności człowieka, praw dziecka, równości kobiet i mężczyzn, wolności wypowiedzi czy dobrej administracji. W dokumencie znajduje się również wskazanie na potrzebę minimalizowania ryzyka błędnych lub stronniczych decyzji podejmowanych przy wsparciu AI.

Unia Europejska jest świadoma ryzyka wynikającego z umasowienia sztucznej inteligencji i stara się temu zaradzić. Najprawdopodobniej wprowadzone zostaną rozwiązania prawne, które uregulują prowadzenie działalności gospodarczej w zakresie rozwijania AI zgodnie z interesem publicznym.

AI - wyznaczyć stosowne granice

Unia Europejska dąży do wprowadzenia jasnych zasad tworzenia aplikacji opartych na AI, jak również ich wykorzystania. Inną konieczną do podjęcia kwestią jest edukacja społeczeństwa w zakresie zagrożeń związanych z technologią. Wiele z nich wiąże się ze sztuczną inteligencją: naruszenia praw autorskich, pogłębianie uprzedzeń czy tworzenie drastycznych treści.

Do rozwoju sztucznej inteligencji trzeba podejść odpowiedzialnie i wyznaczyć jej stosowne granice

Mimo wszystko AI stwarza duże szanse rozwoju w wielu różnych dziedzinach życia i przemysłu. Najbardziej istotne jest przede wszystkim odpowiedzialne podejście do jej rozwoju i wyznaczenie stosownych granic.

Autor

Karol Trzaska

Autor jest prezesem Fundacji Cyfrowy Obywatel

Sztuczna inteligencja jest wszechobecna. Negatywne skutki jej działania jako jedni z pierwszych odczuli artyści. Trenowana na gigantycznych zbiorach danych narusza ona interesy wielu osób, choćby autorów książek. 28 czerwca 2023 roku kancelaria prawna Joseph Saveri Law Firm poinformowała o złożeniu pozwu w imieniu dwóch pisarzy – Paula Tremblaya i Mony Awad – przeciwko firmie OpenAI. Uzasadniają oni pozew tym, że twórczość ich klientów została bezprawnie wykorzystana do szkolenia ChatGPT. Wszystko miało odbyć się bez ich zgody i bez otrzymania jakiejkolwiek rekompensaty.

Pozostało 94% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Publicystyka
Maciej Wierzyński: Jan Karski - człowiek, który nie uprawiał politycznego cwaniactwa
Publicystyka
Paweł Łepkowski: Broń jądrowa w Polsce? Reakcja Kremla wskazuje, że to dobry pomysł
Publicystyka
Jakub Wojakowicz: Spotify chciał wykazać, jak dużo płaci polskim twórcom. Osiągnął efekt przeciwny
Publicystyka
Tomasz Krzyżak: Potrzeba nieustannej debaty nad samorządem
Publicystyka
Piotr Solarz: Studia MBA potrzebują rewolucji