Reklama

Bogusław Chrabota: Jak się chronić przed złymi skutkami sztucznej inteligencji?

Postęp w dziedzinie sztucznej inteligencji (AI) to jeden z głównych wektorów ewolucji technologicznej świata w najbliższych dekadach. I zapewne jeden z najważniejszych mechanizmów sprawczych przemian cywilizacyjnych świata.

Publikacja: 04.04.2025 04:17

Bogusław Chrabota: Jak się chronić przed złymi skutkami sztucznej inteligencji?

Foto: Adobe Stock

Sztuczna inteligencja to nie jakaś nieokreślona intuicja jutra, ale wczoraj i dzisiaj; to dzieje się tu i teraz. O wadze tematu świadczą nie tylko wielomiliardowe inwestycje w AI wszystkich liczących się w skali świata graczy, ale przede wszystkim rozpędzająca się konkurencja w dziedzinie modeli. Niektóre z nich wychodzą już zresztą poza granice generatywnej AI i się zbliżają, jak choćby chiński Manus, do kolejnego etapu jej rozwoju, czyli do tzw. silnej sztucznej inteligencji – AGI.

Dzięki temu błyskawicznemu procesowi nasz świat będzie podlegał bezprecedensowo szybkim przemianom, można tylko mieć nadzieję, że w kierunku przetrwania i poprawy kondycji naszego gatunku. Szybki rozwój AI prócz wielkiej szansy i jeszcze większej nadziei niesie też ze sobą wiele zagrożeń. Piszemy o tym jako wydawcy prasy w publikowanym w całej Europie apelu. Zwracamy się w nim do ludzi odpowiedzialnych za życie publiczne o dostrzeżenie zagrożeń, jakie niesie ze sobą AI.

Czytaj więcej

Europejski apel w sprawie AI

Jakie zagrożenia niesie sztuczna inteligencja?

Jakie to zagrożenia? Niekontrolowany rozwój AI może – co dla nas szczególnie ważne – zniszczyć przemysły kreatywne. Pozbawić pracy twórców: kompozytorów, bo ich rolę mogą przejąć programy; podobnie malarzy, artystów plastyków czy pisarzy. Niekontrolowana, wyzwolona ze świata norm AI może zagrozić pracy również dziennikarzy i wydawców, bo modele generatywnej sztucznej inteligencji miast idei czy refleksji żywych autorów będą szybciej, taniej i w sposób łatwiejszy oferować zsyntetyzowaną wiedzę wyciągniętą z gigantycznych baz danych.

Czytaj więcej

Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci
Reklama
Reklama

Wiedza ta może być przy tym manipulowana przez kontrolujących modele. To, że opierać się ona będzie na zasobach wytrenowanych dzięki naszej pracy i wysiłkowi twórczemu – dla komputerowych programów i ich użytkowników nie będzie miało znaczenia. AI skutecznie zanonimizuje źródła.

Jak się chronić przed ryzykiem, które niesie AI?

Dlatego w naszym apelu domagamy się kontroli nad procesem rozwoju AI. Ochrony przemysłów kreatywnych. Rekompensaty za treści używane do trenowania AI. Czytelnej informacji o tym, że mamy do czynienia z efektem jej użycia. Na koniec – pracy nad mechanizmami ochrony użytkowników AI przed szerzeniem nieprawdy, wojnami hybrydowymi czy promowaniem zła. To ważne wyzwania dla ludzi odpowiedzialnych za świat maszyn. Nie możemy z nimi przegrać.

Opinie Ekonomiczne
Andrzej Halesiak: Strategiczne wizje i przemilczane kompromisy
Materiał Promocyjny
UltraGrip Performance 3 wyznacza nowy standard w swojej klasie
Opinie Ekonomiczne
Roguski: Przyszłość mieszkaniówki. Państwa-miasta i pułapka domów za 1 zł
Opinie Ekonomiczne
Krzysztof Adam Kowalczyk: Do dziecka trzeba dwojga
Opinie Ekonomiczne
Aleksandra Fandrejewska: Więcej mieszkań niż rodzin: to dobrze czy źle?
Materiał Promocyjny
Manager w erze AI – strategia, narzędzia, kompetencje AI
Opinie Ekonomiczne
Piotr Arak: Jaki będzie kolejny kryzys gospodarczy?
Materiał Promocyjny
Prawnik 4.0 – AI, LegalTech, dane w codziennej praktyce
Reklama
Reklama