Reklama

Jacek J. Wojciechowicz: Czy powinniśmy obawiać się sztucznej inteligencji?

Zagrożeniem nie jest sama technologia, lecz brak gotowości instytucjonalnej i społecznej, by nią odpowiedzialnie zarządzać.

Publikacja: 25.07.2025 04:18

Jacek J. Wojciechowicz: Czy powinniśmy obawiać się sztucznej inteligencji?

Foto: Adobe Stock

Sztuczna inteligencja (AI) coraz śmielej wkracza w życie społeczne i gospodarcze. Choć niesie ogromny potencjał wzrostu produktywności, transformacji usług publicznych i poprawy jakości życia, to jednocześnie stwarza ryzyka, których nie sposób ignorować. Ekonomiści – jako analitycy systemów społecznych i projektanci polityk publicznych – muszą uwzględniać te zagrożenia nie tylko w wymiarze technologicznym, lecz także instytucjonalnym i etycznym.

Zagrożenia pierwszego rzędu

Do najważniejszych problemów należą:

• Błędy i uprzedzenia algorytmiczne – AI uczy się na danych odzwierciedlających nierówności społeczne, co może skutkować dyskryminacją w decyzjach kredytowych, rekrutacyjnych czy ubezpieczeniowych.

Czytaj więcej

Amerykańska AI spuszczona ze smyczy. Trump znosi bariery i ujawnia plan ekspansji

• Brak przejrzystości (black-boxing) – modele oparte na deep learningu są często nieczytelne nawet dla ich twórców, co uniemożliwia zewnętrzny audyt i utrudnia regulację.

Reklama
Reklama

• Zagrożenia dla prywatności – systemy AI operują na ogromnych zbiorach danych osobowych, często bez właściwych zabezpieczeń.

• Rozprzestrzenianie dezinformacji – generatywna AI umożliwia tworzenie deepfake’ów i manipulowanie opinią publiczną na skalę przemysłową.

• Automatyzacja i ryzyko wykluczenia – AI może prowadzić do znaczących zmian na rynku pracy, w tym do likwidacji zawodów rutynowych. Bez systemowych programów przekwalifikowania i adaptacji grozi to pogłębieniem nierówności społecznych.

Zagrożenia strukturalne i globalne

Niepokój budzi również rosnąca koncentracja władzy nad AI w rękach kilku globalnych korporacji oraz państw, co może prowadzić do ekonomicznej koncentracji zysków i geopolitycznej niestabilności.

Czytaj więcej

Szef OpenAI: AI wyeliminuje całe zawody, ale ten zniknie jako pierwszy

Nie bez znaczenia są też zagrożenia bezpieczeństwa – AI bywa wykorzystywana do zaawansowanych cyberataków, a nawet w autonomicznych systemach uzbrojenia. Szczególnie niebezpieczna jest wizja wyścigu zbrojeń na polu AI, w którym tempo rozwoju wyprzedza możliwości regulacyjne.

Reklama
Reklama

Egzystencjalne ryzyko

Najbardziej fundamentalne zagrożenie stanowi jednak rozwój tzw. sztucznej inteligencji ogólnej (AGI), czyli systemu zdolnego do samodzielnego uczenia się i podejmowania decyzji w wielu dziedzinach – potencjalnie przewyższającego człowieka pod względem zdolności poznawczych. Jeśli AGI nie będzie zgodna z ludzkimi wartościami lub będzie działać poza kontrolą instytucjonalną, jej decyzje mogą mieć nieprzewidywalne i katastrofalne konsekwencje.

W tym kontekście potrzebne jest globalne porozumienie na rzecz badania bezpieczeństwa AGI, transparentności rozwoju oraz ustanowienia czerwonych linii technologicznych.

Wyzwania instytucjonalne i systemowe

W Polsce istnieje poważne ryzyko cywilizacyjnego opóźnienia. Zajmujemy dopiero 25. miejsce w rankingu European Innovation Scoreboard 2024 – osiągając zaledwie 60 proc. średniej UE. Problemem nie jest infrastruktura cyfrowa, lecz niski poziom stosowania AI w sektorze MŚP, słaba współpraca nauki z biznesem i brak społecznego zaufania do technologii.

Czytaj więcej

Rafał Rozwadowski: Rewolucję AI trudno będzie dogonić i opanować

Uczelnie rzadko są aktywnymi ośrodkami innowacji – kształcą raczej operatorów niż twórców systemów. Brakuje interdyscyplinarnych laboratoriów AI łączących ekonomię, etykę, informatykę i prawo.

Co należy zrobić?

Reakcja powinna być wielopoziomowa:

Reklama
Reklama

• Budowa narodowej strategii AI zintegrowanej wokół edukacji, innowacji i rynku pracy – na wzór Korei Południowej czy Finlandii.

• Reforma edukacji – od wczesnych etapów nauczania: kodowania, myślenia algorytmicznego, prompt engineeringu (tworzenia i optymalizacji promptów, czyli instrukcji dla modeli sztucznej inteligencji).

• Wspieranie innowacji deep-tech i państwo jako pierwszy klient innowacji (np. GovTech, czyli użycie technologii do poprawy efektywności, przejrzystości i dostępności usług administracji rządowej, zamówienia prekomercyjne).

• Wprowadzenie mechanizmów zarządzania ryzykiem AI – opartych na AI Act i międzynarodowej współpracy.

• Promowanie odpowiedzialnej innowacji – obejmującej zarówno kwestie techniczne (audyt, transparentność), jak i etyczne (sprawiedliwość, inkluzywność, odpowiedzialność społeczna).

Reklama
Reklama

Zagrożeniem nie jest sama technologia, lecz brak gotowości instytucjonalnej i społecznej, by nią odpowiedzialnie zarządzać. W czasach „twórczej destrukcji” (Schumpeter), AI może być zarówno narzędziem wzrostu, jak i źródłem kryzysów – zależnie od tego, kto ją tworzy, kto nadzoruje i komu służy.

O autorze

Jacek J. Wojciechowicz

Członek Towarzystwa Ekonomistów Polskich, wykładowca Uniwersytetu Civitas i prezes Ai4smart sp. z o.o.



Sztuczna inteligencja (AI) coraz śmielej wkracza w życie społeczne i gospodarcze. Choć niesie ogromny potencjał wzrostu produktywności, transformacji usług publicznych i poprawy jakości życia, to jednocześnie stwarza ryzyka, których nie sposób ignorować. Ekonomiści – jako analitycy systemów społecznych i projektanci polityk publicznych – muszą uwzględniać te zagrożenia nie tylko w wymiarze technologicznym, lecz także instytucjonalnym i etycznym.

Zagrożenia pierwszego rzędu

Pozostało jeszcze 91% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Reklama
Opinie Ekonomiczne
Czy rynek może uratować przyrodę?
Opinie Ekonomiczne
Valdis Dombrovskis: UE zmienia kurs i słucha głosu przedsiębiorców
Opinie Ekonomiczne
Witold M. Orłowski: Połowa lata
Opinie Ekonomiczne
Krzysztof Adam Kowalczyk: Gospodarka w zmienionym rządzie Tuska ważna, ale nie najważniejsza. Szkoda
Opinie Ekonomiczne
Anna Cieślak-Wróblewska: Polacy wolą pracować w kraju. To dobra wiadomość, ale nie dla wszystkich
Reklama
Reklama