Google zamierza finansować dostawców chmury korzystających z jej akceleratorów.

Google zamierza finansować dostawców chmury korzystających z jej akceleratorów.

9 hardware

Google stara się podnieść swoje przyspieszacze AI na nowy poziom

OpenAI aktywnie promuje swój model „kołowy” współpracy, co najwyraźniej nie pozostało niezauważone przez Google. W odpowiedzi firma postanowiła wykorzystać zasoby finansowe do przyciągnięcia nowych klientów do zakupu własnych przyspieszaczy sztucznej inteligencji (AI). Konkurenci patrzą na tę inicjatywę sceptycznie, a niedobór komponentów utrudnia realizację planu.

Co się wiadomo
Wydanie *The Wall Street Journal* informuje o zamiarach Google, by stymulować popyt na własne układy scalone. Największe dostawcy chmury głównie korzystają z przyspieszaczy Nvidia, dlatego promowanie procesorów neuronowych TPU (Tensor Processing Unit) przez Google napotyka trudności. Aby zmienić sytuację, firma planuje współpracować z nowymi graczami rynku chmurowego – „neocloud”‑dostawcami – i zachęcać ich do zakupu własnych przyspieszaczy poprzez udział finansowy.

- Inwestycje w Fluidstack

Według źródła, Google prowadzi rozmowy o zainwestowaniu 100 mln USD w kapitał start-upu Fluidstack. Transakcja o wartości 7,5 mln USD zakłada, że Fluidstack będzie korzystać z infrastruktury GPU i TPU Google.

- Wsparcie byłych projektów kopania

Informuje się również, że Google planuje finansować kilka projektów wcześniej zajmujących się kryptokopaniem, które teraz przeorientowują się na tworzenie centrów danych (CD).

- Strukturalna niezależność działu TPU

W firmie rozważa się pomysł nadania podziałowi odpowiedzialnemu za rozwój TPU większej autonomii. Pozwoliłoby to przyciągnąć zewnętrzny kapitał do produkcji układów scalonych. Oficjalnych oświadczeń na ten temat nie ma.

Aktualny status TPU
Google od 2018 roku udostępnia klientom chmury dostęp do mocy obliczeniowych opartych na TPU. Niemniej jednak główna część infrastruktury Google wciąż zależy od przyspieszaczy Nvidia. Według niektórych danych, firma już sprzedaje swoje TPU zewnętrznym klientom, którzy budują własne moce obliczeniowe.

Kierownik rozwoju TPU – Amin Vahdat (Amin Vahdat) – niedawno otrzymał awans na głównego technologicznego ds. infrastruktury AI i teraz podlega bezpośrednio dyrektorowi generalnemu Sundarowi Pichai (Sundar Pichai).

Ograniczenia wzrostu
Kluczowym problemem dla rozwoju biznesu TPU pozostaje niedobór mocy produkcyjnych w TSMC, która daje priorytet zamówieniom konkurencyjnej Nvidia. Ponadto niedobór pamięci RAM spowalnia rozwój infrastruktury opartej na TPU.

Mimo to duże firmy wykazują zainteresowanie przyspieszaczami Google. Wśród potencjalnych klientów – Meta Platforms i Anthropic. Jednak Amazon (AWS) widzi w Google jedynie konkurenta i nie spieszy się przechodzić na TPU, ponieważ rozwija własne procesory Graviton. To samo dotyczy Microsoftu z usługą chmurową Azure.

W ten sposób Google podejmuje szereg kroków finansowych i organizacyjnych, aby podnieść swoje przyspieszacze AI na wyższy poziom konkurencji w szybko rozwijającym się segmencie chmury.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować