Bogusław Chrabota: Jak się chronić przed złymi skutkami sztucznej inteligencji?

Postęp w dziedzinie sztucznej inteligencji (AI) to jeden z głównych wektorów ewolucji technologicznej świata w najbliższych dekadach. I zapewne jeden z najważniejszych mechanizmów sprawczych przemian cywilizacyjnych świata.

Publikacja: 04.04.2025 04:17

Bogusław Chrabota: Jak się chronić przed złymi skutkami sztucznej inteligencji?

Foto: Adobe Stock

Sztuczna inteligencja to nie jakaś nieokreślona intuicja jutra, ale wczoraj i dzisiaj; to dzieje się tu i teraz. O wadze tematu świadczą nie tylko wielomiliardowe inwestycje w AI wszystkich liczących się w skali świata graczy, ale przede wszystkim rozpędzająca się konkurencja w dziedzinie modeli. Niektóre z nich wychodzą już zresztą poza granice generatywnej AI i się zbliżają, jak choćby chiński Manus, do kolejnego etapu jej rozwoju, czyli do tzw. silnej sztucznej inteligencji – AGI.

Dzięki temu błyskawicznemu procesowi nasz świat będzie podlegał bezprecedensowo szybkim przemianom, można tylko mieć nadzieję, że w kierunku przetrwania i poprawy kondycji naszego gatunku. Szybki rozwój AI prócz wielkiej szansy i jeszcze większej nadziei niesie też ze sobą wiele zagrożeń. Piszemy o tym jako wydawcy prasy w publikowanym w całej Europie apelu. Zwracamy się w nim do ludzi odpowiedzialnych za życie publiczne o dostrzeżenie zagrożeń, jakie niesie ze sobą AI.

Czytaj więcej

Europejski apel w sprawie AI

Jakie zagrożenia niesie sztuczna inteligencja?

Jakie to zagrożenia? Niekontrolowany rozwój AI może – co dla nas szczególnie ważne – zniszczyć przemysły kreatywne. Pozbawić pracy twórców: kompozytorów, bo ich rolę mogą przejąć programy; podobnie malarzy, artystów plastyków czy pisarzy. Niekontrolowana, wyzwolona ze świata norm AI może zagrozić pracy również dziennikarzy i wydawców, bo modele generatywnej sztucznej inteligencji miast idei czy refleksji żywych autorów będą szybciej, taniej i w sposób łatwiejszy oferować zsyntetyzowaną wiedzę wyciągniętą z gigantycznych baz danych.

Czytaj więcej

Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci

Wiedza ta może być przy tym manipulowana przez kontrolujących modele. To, że opierać się ona będzie na zasobach wytrenowanych dzięki naszej pracy i wysiłkowi twórczemu – dla komputerowych programów i ich użytkowników nie będzie miało znaczenia. AI skutecznie zanonimizuje źródła.

Jak się chronić przed ryzykiem, które niesie AI?

Dlatego w naszym apelu domagamy się kontroli nad procesem rozwoju AI. Ochrony przemysłów kreatywnych. Rekompensaty za treści używane do trenowania AI. Czytelnej informacji o tym, że mamy do czynienia z efektem jej użycia. Na koniec – pracy nad mechanizmami ochrony użytkowników AI przed szerzeniem nieprawdy, wojnami hybrydowymi czy promowaniem zła. To ważne wyzwania dla ludzi odpowiedzialnych za świat maszyn. Nie możemy z nimi przegrać.

Sztuczna inteligencja to nie jakaś nieokreślona intuicja jutra, ale wczoraj i dzisiaj; to dzieje się tu i teraz. O wadze tematu świadczą nie tylko wielomiliardowe inwestycje w AI wszystkich liczących się w skali świata graczy, ale przede wszystkim rozpędzająca się konkurencja w dziedzinie modeli. Niektóre z nich wychodzą już zresztą poza granice generatywnej AI i się zbliżają, jak choćby chiński Manus, do kolejnego etapu jej rozwoju, czyli do tzw. silnej sztucznej inteligencji – AGI.

Pozostało jeszcze 82% artykułu
1 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie Ekonomiczne
Polscy emeryci wracają do pracy
Opinie Ekonomiczne
Żeby się chciało pracować, tak jak się nie chce
Opinie Ekonomiczne
Paweł Rożyński: Jak przekuć polskie innowacje na pieniądze
Opinie Ekonomiczne
Dlaczego warto pomagać innym, czyli czego zabrakło w exposé ministra Sikorskiego
Materiał Promocyjny
Tech trendy to zmiana rynku pracy
Opinie Ekonomiczne
Leszek Pacholski: Interesy ludzi nauki nie uwzględniają potrzeb polskiej gospodarki
Materiał Partnera
Polska ma ogromny potencjał jeśli chodzi o samochody elektryczne