Nvidia przygotowuje się do walki o inferencję, tworząc układ scalony oparty na technologiach Groq dla OpenAI i agentów AI.
Nowy chip Nvidia – krok w stronę szybszych aplikacji AI
Nvidia planuje zaprezentować w marcu nowy procesor stworzony specjalnie do przyspieszania inferencji (obliczeń już wytrenowanych modeli) i skierowany do klientów takich jak OpenAI. To zmiana kierunku firmy, która wcześniej skupiała się głównie na trenowaniu systemów AI.
Co dokładnie pojawi się
- Nowa platforma zostanie zaprezentowana na konferencji deweloperów GTC (Graphics Technology Conference).
- W rdzeń platformy wchodzi chip od startupu Groq – jednego z najszybszych rozwiązań do inferencji.
- Platforma ma konkurować z własnymi akceleratorami Google i Amazon, które już osiągnęły znaczące sukcesy.
Dlaczego to ważne
Wraz ze wzrostem popularności „web‑kodowania” (generowanie kodu AI na podstawie tekstu) rośnie zapotrzebowanie na szybką i energooszczędną infrastrukturę.
Dla OpenAI nowy procesor staje się kluczowym czynnikiem:
- W styczniu firma zawarła umowę z Cerebras na chip skoncentrowany na inferencji, który według nich jest szybszy od konkurencji.
- Niedługo przed tym OpenAI ogłosiło dużą transakcję z Nvidia, w ramach której uzyskały „dedykowane zasoby do inferencji” i zainwestowały 30 miliardów dolarów od „zielonego” producenta.
Środowisko konkurencyjne
Firma | Produkt | Orientacja
---|---|---
Nvidia | GPU rodziny Hopper, Blackwell, Rubin | Trening i inferencja
Google | TPU | Inferencja
Amazon | Trainium | Inferencja
Cerebras | Specjalizowany chip | Inferencja
Groq | Chipy z „blokami przetwarzania języka” | Inferencja
Nvidia utrzymuje ponad 90 % udziału w rynku GPU, ale jej chipy często uważane są za drogie i energochłonne do zadań inferencyjnych. To przyciąga uwagę firm szukających alternatywy.
Kluczowe aplikacje
- Generowanie kodu: usługi Claude Code (Anthropic) i Codex (OpenAI) korzystają z chmur Amazon i Google, ale Codex planuje przejść na nową platformę Nvidia.
- Targetowanie reklam: Meta współpracuje z Nvidia przy inferencji systemów AI, gdzie centralne procesory okazują się najbardziej efektywne.
Wniosek
Nvidia nie tylko rozszerza swoją linię produktów, ale także wchodzi w bezpośrednią konkurencję z gigantami branży. Nowy chip zintegrowany ze startupem Groq może stać się kluczowym czynnikiem dla firm dążących do szybszej i bardziej ekonomicznej obsługi modeli AI.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować