Reklama

Marta Postuła: Fabryki AI, czyli gdzie i jak powstaje infrastruktura sztucznej inteligencji

Fabryki AI to nie typowe centra danych, ale złożone ekosystemy technologiczne składające się ze ściśle powiązanych, kosztownych elementów, tworzących infrastrukturę zdolną do trenowania modeli liczących biliony parametrów. Czy Polska będzie w stanie dołączyć do tego wyścigu?

Publikacja: 10.12.2025 04:33

Marta Postuła: Fabryki AI, czyli gdzie i jak powstaje infrastruktura sztucznej inteligencji

Prof. dr hab. Marta Postuła

Foto: Materiały prasowe

W ostatnich latach obserwujemy bezprecedensowy wzrost inwestycji w centra danych wyspecjalizowane pod sztuczną inteligencję – coraz częściej nazywane fabrykami AI. Według prognoz, w 2025 r. globalne nakłady na tę infrastrukturę sięgną 552 mld dol. (źródło: Dell’Oro Group, Synergy Research, IEA). To już nie są kameralne laboratoria z kilkoma serwerami, w których zespoły inżynierów w odosobnieniu trenują algorytmy. Dzisiejsze fabryki AI to wysoce zaawansowane centra obliczeniowe, operujące na dziesiątkach tysięcy najnowszych układów scalonych, realizujących miliardy operacji w każdej sekundzie. W takim środowisku każdy megawat energii staje się strategicznym zasobem – decydującym zarówno o możliwościach obliczeniowych, jak i o tempie rozwoju cyfrowej inteligencji. W epoce, w której dane stają się surowcem, a moc obliczeniowa nową walutą przewagi konkurencyjnej, infrastruktura AI zaczyna kształtować architekturę przyszłej gospodarki oraz nowy układ globalnych wpływów.

Czym właściwie jest fabryka AI?

Infrastruktura sztucznej inteligencji rozwija się dziś w dwóch głównych formatach, które różnią się skalą, mocą obliczeniową i przeznaczeniem. Fabryka AI to wyspecjalizowane centrum danych zaprojektowane z myślą o trenowaniu modeli sztucznej inteligencji, prowadzeniu badań i rozwoju oraz świadczeniu usług chmurowych opartych na AI. Takie obiekty działają zwykle na poziomie regionalnym lub korporacyjnym, zapewniając lokalną bazę mocy obliczeniowej dla firm i instytucji. Natomiast gigafabryki AI reprezentują infrastrukturę działającą w znacznie większej skali. To one umożliwiają trenowanie największych modeli językowych świata, liczących często ponad 100 mld parametrów oraz obsługę milionów zapytań użytkowników w skali globalnej. Gigafabryki definiują dziś granice technologicznych możliwości w obszarze generatywnej sztucznej inteligencji i zaawansowanej automatyzacji. To nie tylko inna skala technologiczna, lecz także inny próg wejścia, inne ryzyka, inna rola w gospodarce i coraz częściej inne znaczenie geopolityczne.

Kto buduje fabryki AI i czy to się w ogóle opłaca?

Rynek budowy fabryk AI jest dziś silnie zróżnicowany pod względem skali inwestycji oraz dostępu do kapitału. Największą rolę odgrywają hiperskalerzy, czyli globalni dostawcy usług chmurowych tacy jak Microsoft, Google, Amazon oraz Meta. Realizują oni projekty o średniej wartości przekraczającej 8,8 mld dol., a ich decyzje inwestycyjne w praktyce wyznaczają globalny układ sił w obszarze sztucznej inteligencji. Obok nich działają duże firmy technologiczne oraz korporacje z innych sektorów, które budują własną infrastrukturę obliczeniową, aby uniezależnić się od zewnętrznych dostawców i zdobyć przewagę konkurencyjną. Ważną rolę odgrywają także instytucje publiczne, takie jak rządy, uczelnie wyższe i ośrodki badawcze, które inwestują w superkomputery w ramach strategii wzmacniania suwerenności technologicznej. Na drugim biegunie rynku znajdują się startupy. Ich projekty są często innowacyjne, jednak zdecydowanie mniejsze pod względem skali. Średnia wartość ich inwestycji wynosi około 224 mln dol.

Finansowanie fabryk AI opiera się na dwóch podstawowych kategoriach kosztów: CAPEX oraz OPEX. CAPEX to wydatki inwestycyjne obejmujące zakup gruntów, budowę obiektów oraz wyposażenie centrum danych w sprzęt obliczeniowy. OPEX oznacza koszty operacyjne, czyli wydatki związane z codziennym funkcjonowaniem infrastruktury. W przypadku fabryk AI obejmują one przede wszystkim energię elektryczną, chłodzenie oraz utrzymanie sprzętu pracującego bez przerwy. W pierwszym roku dominują nakłady inwestycyjne, natomiast w kolejnych latach coraz większy udział w strukturze kosztów zajmują wydatki operacyjne. Energia i infrastruktura chłodzenia stają się kluczowe ze względu na wysoką gęstość mocy i ciągłą pracę układów obliczeniowych. Rentowność inwestycji zależy bezpośrednio od ich skali. Fabryki o wartości od 50 do 100 mln dol. osiągają zwrot po okresie od 2,5 do 4,5 roku, a ich wewnętrzna stopa zwrotu mieści się w przedziale od 22 do 35 proc. W przypadku gigafabryk projekty wymagające nakładów przekraczających 5 mld dol. zaczynają się zwracać dopiero po 7 do 12 latach, a ich IRR mieści się w przedziale od 12 do 18 proc.

Foto: materiały prasowe

Reklama
Reklama

Odmienność horyzontów zwrotu i struktury kosztów znajduje swoje odzwierciedlenie w sposobach finansowania, które są silnie uwarunkowane geopolitycznie. W Stanach Zjednoczonych dominuje model finansowania bilansowego – giganci tacy jak Microsoft czy Meta reinwestują zyski operacyjne bezpośrednio w infrastrukturę, co pozwala na błyskawiczne decyzje inwestycyjne, wspierane przez rynek Venture Capital finansujący mniejsze podmioty. Chiny przyjęły model kapitalizmu państwowego oparty na tzw. Government Guidance Funds – potężnych wehikułach inwestycyjnych, które łączą kapitał centralny z lokalnym, oferując preferencyjne kredyty i bezpośrednie zastrzyki gotówki bez wymogu natychmiastowej rentowności. Z kolei Europa operuje w znacznie bardziej złożonym modelu finansowania hybrydowego i konsorcjalnego (blended finance). W przypadku flagowych inwestycji, na przykład takich jak superkomputery EuroHPC, struktura kapitałowa wymaga skomplikowanego montażu: zazwyczaj 50 proc. środków pochodzi z budżetu UE (np. program Cyfrowa Europa), a drugie 50 proc. muszą wyłożyć państwa członkowskie wchodzące w skład konsorcjum. W przypadku projektów prywatno-publicznych kluczowym mechanizmem staje się IPCEI (Important Projects of Common European Interest) – specjalna ścieżka prawna, która pozwala rządom na subsydiowanie fabryk AI, co normalnie byłoby zakazane przez unijne prawo konkurencji. Wymaga to jednak wykazania tzw. luki finansowej oraz udowodnienia efektów spill-over, czyli korzyści wykraczających poza granice jednego państwa członkowskiego. Ten wielopoziomowy proces sprawia, że europejski proces inwestycyjny jest obarczony znaczącym wydłużeniem w porównaniu z modelami amerykańskim i chińskim.

Najważniejsze czynniki lokalizacyjne

Wybór lokalizacji dla fabryki AI jest decyzją o znaczeniu strategicznym i zależy od trzech podstawowych elementów: energii, regulacji oraz dostępu do talentów. Najistotniejszym z nich pozostaje koszt i dostępność energii elektrycznej. Gigafabryki zużywają ogromne ilości prądu, dlatego różnice w cenach między regionami mogą przesądzić o rentowności inwestycji. Zasilanie obiektu o mocy jednego megawata przez okres pięciu lat kosztuje w stanie Iowa około 1,7 miliona dol. W Niemczech taki sam obiekt generowałby koszt blisko 8 mln dol. O równie dużym znaczeniu decyduje efektywność energetyczna mierzona wskaźnikiem PUE, czyli Power Usage Effectiveness. Wskaźnik ten określa, jaka część energii trafia bezpośrednio do sprzętu informatycznego, a jaka jest zużywana na chłodzenie i infrastrukturę pomocniczą. Kraje nordyckie, korzystające z chłodniejszego klimatu i energii odnawialnej, osiągają wartości PUE na poziomie około 1,10. W cieplejszych lokalizacjach, takich jak Indie, wskaźnik ten rośnie do około 1,30, co w praktyce oznacza znacznie wyższe koszty operacyjne. Drugim czynnikiem są regulacje. Czas potrzebny na uzyskanie pozwoleń budowlanych różni się znacząco w zależności od regionu. Jak wskazuje raport „Globalne Fabryki i Gigafabryki AI: Analiza Strategiczna, Geograficzna i Ekonomiczna (2020–2025)”, w Stanach Zjednoczonych mediana wynosi cztery miesiące, w Chinach pięć, natomiast w Unii Europejskiej standardowy proces trwa średnio 44 miesiące. W przypadku projektów o znaczeniu strategicznym, takich jak IPCEI, czas ten może zostać skrócony do 18 miesięcy. Kluczowy jest też dostęp do inżynierów i naukowców specjalizujących się w uczeniu maszynowym, zarządzaniu infrastrukturą chmurową oraz projektowaniu układów scalonych. Te trzy czynniki: energia, regulacje oraz talenty, decydują nie tylko o powodzeniu poszczególnych inwestycji, lecz także kształtują globalną mapę sił w rywalizacji o dominację w obszarze sztucznej inteligencji.

Foto: materiały prasowe

Suwerenność obliczeniowa

W warunkach globalnej rywalizacji technologicznej coraz większego znaczenia nabiera suwerenność obliczeniowa. Oznacza ona zdolność państwa do autonomicznego korzystania z zasobów obliczeniowych potrzebnych do trenowania i wdrażania sztucznej inteligencji, bez zależności od zewnętrznych dostawców. Jest to pojęcie złożone i wielowymiarowe, obejmujące trzy wzajemnie powiązane poziomy. Pierwszy poziom dotyczy jurysdykcji terytorialnej, czyli fizycznego ulokowania infrastruktury obliczeniowej w granicach państwa. Taka lokalizacja pozwala na egzekwowanie krajowych regulacji, zabezpieczenie ciągłości dostaw oraz pełną kontrolę nad danymi przetwarzanymi w centrach danych. Drugi poziom odnosi się do własności i narodowości podmiotów zarządzających infrastrukturą. Nawet jeśli serwery stoją na krajowym gruncie, ich zagraniczny właściciel podlega prawu swojego państwa, co wiąże się z ryzykiem ingerencji zewnętrznej. Przykładem jest amerykański CLOUD Act, który umożliwia służbom Stanów Zjednoczonych uzyskanie dostępu do danych przechowywanych przez amerykańskie firmy niezależnie od miejsca ich fizycznej lokalizacji. Trzeci poziom suwerenności obejmuje kontrolę nad łańcuchem dostaw kluczowych komponentów, przede wszystkim akceleratorów AI.

Najgłębszym wymiarem tej niezależności jest projektowanie i produkcja chipów, ale równie istotny staje się dostęp do surowców krytycznych, bez których wytwarzanie układów scalonych byłoby niemożliwe. Chiny od lat dominują w globalnych dostawach takich materiałów jak gal, german, grafit oraz wielu pierwiastków ziem rzadkich, wykorzystywanych w fotonice, laserach optycznych, pamięciach HBM i komponentach sieci HPC. Kontrolują również znaczną część produkcji surowców wykorzystywanych w bateriach litowych, co wpływa na cały sektor technologiczny, w tym chłodzenie i zasilanie infrastruktury obliczeniowej. W ostatnich latach Pekin wprowadzał kolejne ograniczenia eksportowe na te materiały, traktując je jako narzędzie polityki geoekonomicznej. W 2025 r. część tych ograniczeń zostanie czasowo zawieszona, włącznie z regulacjami dotyczącymi pierwiastków ziem rzadkich oraz surowców związanych z technologiami litowymi. Zawieszenie ma jednak charakter tymczasowy i nie oznacza rezygnacji z polityki kontroli. Ramy prawne nadal obowiązują i mogą być ponownie aktywowane. W praktyce oznacza to, że globalny łańcuch dostaw AI pozostaje strukturalnie zależny od decyzji Pekinu, który utrzymuje znaczącą przewagę w obszarze surowców krytycznych. Główną areną rywalizacji o suwerenność obliczeniową pozostaje konflikt technologiczny między Stanami Zjednoczonymi a Chinami. Waszyngton ogranicza eksport najbardziej zaawansowanych układów scalonych, utrzymując przewagę w trzecim poziomie suwerenności. Pekin odpowiada rozwojem własnych akceleratorów i szerokim wsparciem dla krajowego przemysłu półprzewodnikowego, a także wykorzystywaniem kontroli surowcowej jako narzędzia nacisku. W efekcie jedynie Stany Zjednoczone i Chiny zbliżyły się do pełnej suwerenności obliczeniowej, kontrolując infrastrukturę, własność, technologie oraz zasoby potrzebne do ich wytwarzania. Unia Europejska, świadoma rosnącej asymetrii, podjęła działania mające wzmocnić autonomię technologiczną kontynentu. Inicjatywy takie jak EU Chips Act oraz paneuropejskie projekty superkomputerowe, w tym Jupiter w Niemczech, Leonardo we Włoszech, LUMI w Finlandii i MareNostrum 5 w Hiszpanii, mają zwiększyć odporność cyfrową Europy. Mimo ambicji i rosnących nakładów, skala europejskich projektów nadal pozostaje niewspółmierna do inwestycji realizowanych w Stanach Zjednoczonych i Chinach.

Na tym tle Polska konsekwentnie buduje własną drogę do suwerenności obliczeniowej. W Poznaniu działa już Fabryka AI w centrum Beyond.pl. W realizacji znajdują się kolejne kluczowe przedsięwzięcia, w tym Fabryka PIAST AI finansowana ze środków EuroHPC JU, z budżetem przekraczającym 50 mln euro oraz 340 mln zł środków krajowych, a także Gaia AI Factory w Krakowie o wartości około 70 mln euro. Polska dysponuje również siecią PLGrid oraz centrami HPC. Planowane są duże inwestycje, w tym Baltic AI GigaFactory wyceniana na około 3 mld euro, rozproszone klastry AI w pięciu miastach obejmujące do 30 tysięcy akceleratorów do 2029 r. oraz lokalne punkty dostępu do zasobów EuroHPC. Najpoważniejszym ograniczeniem pozostaje brak własnej produkcji chipów. Polska nadal zależy od importu kluczowych komponentów, choć równolegle rozwija politykę półprzewodnikową oraz kompetencje w fotonice i projektowaniu układów scalonych. Są to jednak procesy długotrwałe i kapitałochłonne, wymagające ścisłej współpracy z globalnymi liderami technologii.

Reklama
Reklama

Foto: materiały prasowe

Perspektywa dalszych działań

Umocnienie pozycji w obszarze suwerenności obliczeniowej wymaga skoordynowanych i długofalowych działań. Najważniejszym priorytetem pozostaje intensyfikacja inwestycji w krajowe fabryki AI, rozwój kompetencji w projektowaniu układów scalonych, budowa narodowych modeli językowych oraz zapewnienie stabilnego i konkurencyjnego zaplecza energetycznego. Kluczowe znaczenie ma dostęp do taniej, niskoemisyjnej i przewidywalnej energii, ponieważ koszty zasilania oraz chłodzenia stanowią największą część wydatków operacyjnych fabryk AI. Rozwój odnawialnych źródeł energii – w szczególności morskiej energetyki wiatrowej i nowoczesnych magazynów energii – staje się jednym z fundamentów opłacalności infrastruktury obliczeniowej w długim horyzoncie. W tym kontekście coraz większe znaczenie mogą odgrywać regiony dysponujące stabilnymi i czystymi źródłami energii.

W tym kontekście warto patrzeć na Pomorze, które dzięki rozwijającej się energetyce offshore i nowoczesnej infrastrukturze energetycznej staje się naturalnym zapleczem pod przyszłe inwestycje w duże centra danych i fabryki AI, choć ich skala będzie zależeć od krajowej polityki energetycznej i poziomu integracji z europejskimi projektami infrastrukturalnymi. Równie istotne pozostaje pogłębianie współpracy z europejskimi inicjatywami, takimi jak EuroHPC i GAIA-X, co umożliwi budowę federacyjnych usług chmurowych, wspólnych standardów wymiany danych oraz wzmocnienie odporności cyfrowej całej Unii. Suwerenność obliczeniowa nie jest zagadnieniem wyłącznie technologicznym. Staje się fundamentem przyszłej suwerenności gospodarczej i bezpieczeństwa państwa. W realiach, w których moc obliczeniowa staje się nową walutą geopolityczną, Polska stoi przed strategicznym wyborem: albo zbuduje własne kompetencje, infrastrukturę i technologie, albo zaakceptuje rolę peryferyjnego odbiorcy globalnych rozwiązań. O tym, jaką ścieżkę obierze w praktyce, zadecydują tempo działań oraz skala inwestycji w najbliższych latach. To one przesądzą, jak Polska wykorzysta obecne okno możliwości i czy umocni swoją pozycję w globalnym ekosystemie sztucznej inteligencji.

O autorce
Prof. dr hab. Marta Postuła

Pierwsza wiceprezes zarządu Banku Gospodarstwa Krajowego, kierownik Katedry Finansów i Rachunkowości Wydziału Zarządzania Uniwersytet Warszawski.

Opinie Ekonomiczne
Cezary Szymanek: Co polscy politycy wiedzą o gospodarce i dlaczego jest to groźne
Materiał Promocyjny
Kameralna. Niska zabudowa, wysoki standard myślenia o przestrzeni
Opinie Ekonomiczne
Małgorzata Zaleska: Dylematy finansowania zrównoważonego rozwoju
Opinie Ekonomiczne
Maciej Miłosz: Używane, tanio oddam. O co chodzi z amerykańskimi transporterami Stryker?
Opinie Ekonomiczne
Prof. Chłoń-Domińczak: Dlaczego ekonomiści rozmawiają o demografii
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Opinie Ekonomiczne
Andrzej Krakowiak: Regulacje nie są lekiem na wszystko
Materiał Promocyjny
Nadciąga wielka zmiana dla branży tekstylnej. Dla rynku to też szansa
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama