Reklama

Harry i Meghan pod rękę z naukowcami. Boją się superinteligencji

Ponad 700 osób, w tym laureaci Nobla, liderzy religijni, naukowcy i celebryci podpisali apel o zakaz rozwoju superinteligentnej sztucznej inteligencji. Naukowcy ostrzegają, że takie systemy mogą powstać już w ciągu dwóch lat i wymknąć się spod kontroli.

Publikacja: 23.10.2025 12:40

Książeta Harry i Meghan obwiają się superinteligencji

Książeta Harry i Meghan obwiają się superinteligencji

Foto: Bloomberg

„Wzywamy do zakazu rozwoju superinteligencji, który nie zostanie zniesiony, dopóki nie zapanuje szeroki konsensus naukowy, że można to zrobić w sposób bezpieczny i kontrolowany, oraz nie uzyska się silnego poparcia społecznego” – czytamy w liście, pod którym podpisało się m.in. pięciu laureatów Nagrody Nobla, Steve Wozniak (współzałożyciel Apple), Steve Bannon (bliski sojusznik prezydenta Trumpa), Paolo Benanti (doradca papieża), a także Harry i Meghan, książę i księżna Sussex.

Kto napisał list w sprawie superinteligencji?

List stworzyła Future of Life Institute (FLI) – organizacja non-profit, która w 2023 r. opublikowała inny list otwarty, wzywający do sześciomiesięcznej przerwy w rozwoju potężnych systemów AI. Choć list ten był szeroko komentowany, nie osiągnął swojego celu.

Teraz organizacja skupiła się na superinteligencji, ponieważ – jak wierzą przedstawiciele FLI – ta technologia, definiowana jako system zdolny przewyższyć człowieka we wszystkich użytecznych zadaniach, może pojawić się już w ciągu roku lub dwóch.

Czytaj więcej

AI może zniszczyć ludzkość w kilka lat? Noblista ma zaskakujące rozwiązanie: „matka AI”

– Czas się kończy – powiedział w rozmowie z magazynem „Time” Anthony Aguirre, dyrektor wykonawczy FLI. – Jedyną rzeczą, która może powstrzymać firmy AI przed niekontrolowanym dążeniem do superinteligencji, jest powszechne uświadomienie sobie na wszystkich poziomach społeczeństwa, że tego właśnie nie chcemy.

Reklama
Reklama

W lipcu Mark Zuckerberg, dyrektor generalny Meta (Facebook) – jednej z największych firm rozwijających AI w USA – powiedział, że rozwój superinteligencji jest „na horyzoncie”.

Dlaczego superinteligencja może zagrozić ludzkości?

Badanie opinii publicznej opublikowane wraz z listem wykazało, że 64 proc. Amerykanów uważa, iż superinteligencja nie powinna być rozwijana, dopóki nie zostanie udowodnione, że jest bezpieczna i kontrolowalna, a tylko 5 proc. sądzi, że należy ją rozwijać jak najszybciej.

– Niewielka liczba bardzo bogatych firm buduje te systemy, podczas gdy ogromna większość ludzi wolałaby obrać inną drogę – mówi Aguirre.

Wśród sygnatariuszy znaleźli się również aktorzy Joseph Gordon-Levitt i Stephen Fry, raper will.i.am, izraelski historyk i pisarz Yuval Noah Harari, „ojciec chrzestny AI” Geoffrey Hinton czy brytyjski miliarder Richard Branson. Pod listem podpisała się także Susan Rice, doradczyni ds. bezpieczeństwa narodowego w administracji Baracka Obamy, a nawet Leo Gao – pracownik techniczny w OpenAI, organizacji, którą jej dyrektor generalny Sam Altman określa jako „firmę badającą superinteligencję”. Aguirre spodziewa się, że z czasem liczba podpisów wzrośnie: – Przekonania już istnieją. Problem w tym, że ludzie nie czują się swobodnie, by je otwarcie wyrażać.

Czytaj więcej

Microsoft zaskoczył: Nie ma szans na szybkie stworzenie superinteligencji

Książę Harry, książę Sussex, napisał w dokumencie: „Przyszłość sztucznej inteligencji powinna służyć ludzkości, a nie ją zastępować. Wierzę, że prawdziwym testem postępu będzie nie to, jak szybko się poruszamy, lecz jak mądrze kierujemy. Drugiej szansy nie będzie”.

Reklama
Reklama

Joseph Gordon-Levitt dodał: „Tak, chcemy konkretnych narzędzi AI, które pomogą leczyć choroby, wzmocnią bezpieczeństwo narodowe itd. Ale czy AI musi też naśladować ludzi, manipulować naszymi dziećmi, uzależniać nas od bezwartościowych treści i zarabiać miliardy na reklamach? Większość ludzi tego nie chce. A jednak to właśnie mają na myśli wielkie firmy technologiczne, gdy mówią o »superinteligencji«”.

Potrzebne regulacje prawne

Aguirre uważa jednak, że do realnych zmian potrzebne będą regulacje prawne: – Wiele szkód wynika z wypaczonych struktur motywacyjnych, którym obecnie podlegają firmy – zauważa. – Firmy w USA i Chinach ścigają się, kto pierwszy stworzy superinteligencję. Bez względu na to, czy stanie się to wkrótce, czy za jakiś czas – po stworzeniu superinteligencji to maszyny przejmą kontrolę – dodaje.

Przybywa głosów, które ostrzegają, że szybki postęp w dziedzinie sztucznej inteligencji może doprowadzić ludzkość na skraj zagłady. Prof. Yoshua Bengio, laureat prestiżowej Nagrody Turinga i jeden z pionierów AI, w rozmowie z „Wall Street Journal” mówił wprost, że obawia się egzystencjalnego zagrożenia ze strony tej technologii – Może nastąpić w ciągu najbliższej dekady – ostrzegł. – Jeśli zbudujemy maszyny, które są o wiele mądrzejsze od nas i mają własne cele przetrwania, to jest to niebezpieczne – tłumaczył. Bo gdy AI stanie przed dylematem: zrealizować wyznaczony cel lub ocalić ludzkie życie, może bez wahania wybrać to pierwsze. I to nawet jeśli ceną będzie śmierć człowieka.

FLI podobnie jak to czyni wielu naukowców, w swym dokumencie ostrzega nie tylko przed zagładą ludzkości, ale i takimi zagrożeniami jak utrata miejsc pracy, ograniczenie wolności obywatelskich czy zagrożenie dla bezpieczeństwa narodowego.

Technologie
Sztuczna inteligencja „pokochała” język polski? Wygrał w amerykańskich badaniach
Materiał Promocyjny
W poszukiwaniu nowego pokolenia prezesów: dlaczego warto dbać o MŚP
Technologie
Czy AI odbierze nam pracę? Współzałożyciel OpenAI ma zaskakującą odpowiedź
Technologie
Przełom w bateriach. Dzięki fluorowi elektryki pojadą 1500 km na jednym ładowaniu
Technologie
Szczepionka na raka może już istnieć. To szczepionka przeciw... COVID-19
Materiał Promocyjny
Stacje ładowania dla ciężarówek pilnie potrzebne
Technologie
Dzięki AI uczą się tylko dwie godziny dziennie. Rewolucyjne szkoły odmienią edukację?
Materiał Promocyjny
Prawnik 4.0 – AI, LegalTech, dane w codziennej praktyce
Reklama
Reklama