Reklama

Google stawia na własne chipy AI. Nvidia pod presją

Google może zacząć dostarczać swoje chipy tensorowe (TPU) dla koncernu Meta Platforms. Mogą być one coraz większą konkurencją dla produktów Nvidii.

Publikacja: 25.11.2025 16:25

Nowe układy Google do AI wyzwaniem dla Nvidii

Nowe układy Google do AI wyzwaniem dla Nvidii

Foto: Adobe Stock

Z tego artykułu się dowiesz:

  • Jakie są możliwe konsekwencje wykorzystania chipów tensorowych Google przez Meta Platforms?
  • W jaki sposób akcje związane z Alphabet i Nvidia reagowały na ostatnie doniesienia rynkowe?
  • Czym wyróżniają się chipy tensorowe (TPU) Google w porównaniu do tradycyjnych jednostek GPU?
  • Dlaczego firmy poszukują alternatyw dla produktów Nvidii, wybierając chipy TPU?
  • Jakie korzyści mogą przynieść chipy TPU w kontekście wydajności energetycznej i środowiskowej?
  • Jakie są przewidywane inwestycje Meta Platforms w infrastrukturę obliczeniową?

Akcje części spółek będących dostawcami dla koncernu Alphabet (Google) mocno rosły podczas wtorkowej sesji. Papiery koreańskiej spółki IsuPetasys Co. (dostawcy wielowarstwowych płytek dla Alphabetu) skoczyły aż o 18 proc., a akcje tajwańskiej spółki MediaTek Inc. wzrosły o prawie 5 proc. Alphabet zyskiwał ponad 4 proc. w handlu przedsesyjnym w Nowym Jorku, a Nvidia traciła ponad 3,5 proc. Inwestorzy reagowali w ten sposób na doniesienia portalu The Information mówiące, że Meta Platforms prowadzi rozmowy w sprawie wykorzystania chipów Google – znanych jako jednostki przetwarzania tensorowego (TPU) – w centrach danych w 2027 roku. Meta może również wynająć chipy od działu chmury Google już w przyszłym roku. Inwestorzy potraktowali te doniesienia jako sygnał tego, że chipy TPU mogą stać się poważną konkurencją dla produktów Nvidii.

Czytaj więcej

Nvidia traci inwestorów. Czy AI przestaje być złotym dzieckiem Wall Street?

Czym są chipy tensorowe (TPU)?

Alphabet zawarł już wcześniej umowę na dostawę nawet miliona swoich chipów TPU dla spółki Anthropic. Owe chipy tensorowe (po raz pierwszy opracowane ponad 10 lat temu specjalnie do zadań związanych ze sztuczną inteligencją) zyskują na popularności jako sposób na trenowanie i uruchamianie złożonych modeli AI. Ich atrakcyjność jako alternatywy wzrosła w momencie, gdy firmy na całym świecie martwią się nadmierną zależnością od produktów Nvidii, która zdominowała rynek jednostek przetwarzania grafiki (GPU). Chipy GPU powstały po to, by przyspieszać renderowanie grafiki (głównie w grach wideo i innych aplikacjach efektów wizualnych), ale okazały się idealnie nadawać również do trenowania modeli AI, ponieważ potrafią obsługiwać ogromne ilości danych i obliczeń. TPU są natomiast chipami zaprojektowanymi do określonych aplikacji. Znalazły one zastosowanie jako akceleratory do zadań AI i uczenia maszynowego we własnych aplikacjach Google, a ponieważ Google i jego jednostka DeepMind rozwijają najnowocześniejsze modele AI, koncern może wykorzystywać badania nad tymi modelami dla ulepszania projektów chipów.

Czytaj więcej

Polska kupi tysiące procesorów AI. Inwestycja warta nawet 5 mld zł
Reklama
Reklama

– Jeśli jest to właściwa aplikacja, to mogą one zapewnić znacznie lepszą wydajność w przeliczeniu na dolara w porównaniu z GPU. Zużywają też znacznie mniej energii i wytwarzają mniej ciepła niż GPU. Są bardziej energooszczędne i mają mniejszy ślad środowiskowy – właśnie to sprawia, że są pożądanym rozwiązaniem. Zastosowania są nieco bardziej ograniczone niż w przypadku GPU – nie są tak uniwersalne – ale dla konkretnej aplikacji mogą oferować nawet 1,4-krotnie lepszą wydajność w przeliczeniu na dolara, co stanowi bardzo znaczną oszczędność dla klienta, który rozważa użycie GPU zamiast TPU – stwierdził anonimowy były pracownik Google Cloud w rozmowie z portalem AlphaSense.

„Prawdopodobne wykorzystanie przez Metę TPU Google (które już są używane przez Anthropic) pokazuje, że zewnętrzni dostawcy dużych modeli językowych w najbliższym czasie będą prawdopodobnie korzystać z Google jako dodatkowego dostawcy akceleratorów do inferencji. Szacujemy, że nakłady inwestycyjne Mety w wysokości co najmniej 100 mld dol. w 2026 r. oznaczają, że w przyszłym roku wyda ona co najmniej 40–50 mld dol. na moce obliczeniowe do inferencji” – oceniają analitycy Bloomberg Intelligence.

Biznes
Wojciech Kostrzewa: Rada Przedsiębiorczości zadowolona z decyzji premiera w sprawie PIP
Biznes
Jest raport służb na temat lobbingu wokół KSC. Mają go poznać posłowie
Biznes
Podatek cyfrowy, odwrót USA od instytucji i rekord sprzedaży aut w Polsce
Biznes
Rekordowy rok na polskim rynku samochodów
Biznes
USA przejmują rosyjski tankowiec, polityka rynku pracy i spór o Mercosur
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama