Amazon planuje wdrożyć modele AI na ogromnych układach scalonych Cerebras.

Amazon planuje wdrożyć modele AI na ogromnych układach scalonych Cerebras.

11 hardware

Amazon i Cerebras łączą siły, aby przyspieszyć duże modele językowe

Amazon Web Services (AWS) ogłosiła, że w połowie 2026 roku zacznie korzystać z układów scalonych startupu Cerebras Systems Inc. obok własnych procesorów Trainium. Według informacji firmowych pozwoli to stworzyć „optymalne warunki” do uruchamiania i utrzymania dużych modeli językowych (LLM). Szczegóły finansowe transakcji nie zostały jeszcze ujawnione.

Co dokładnie się stanie
* Układy Trainium 3 od AWS będą obsługiwać zapytania użytkowników – „rozumieć” ich sens.

* Następnie układy Cerebras Wafer‑Scale Engine (WSE) zajmą się generowaniem odpowiedzi.

Dzięki temu dwa specjalistyczne akceleratory działają w parze i zapewniają obliczenia inferencyjne dla LLM.

> „Interakcja między różnymi komponentami zwykle spowalnia proces,” – zauważa Nafea Bshara, wiceprezes AWS. – „Ale dążymy do uzyskania przewagi, korzystając z układów, które szybciej przetwarzają inferencję.”

Przewaga jest szczególnie widoczna tam, gdzie ważna jest szybkość reakcji: na przykład przy krokowym pisaniu kodu lub generowaniu tekstu w czasie rzeczywistym.

Dlaczego to ważne
* Amazon jest jednym z największych dostawców chmury i aktywnym użytkownikiem GPU-producentów Nvidia. Obecnie firma rozwija własne układy AI, aby zwiększyć efektywność centrów danych i zaoferować klientom unikalne usługi.

* Dla Cerebras współpraca z AWS to pierwszy duży kontrakt od giganta centrów danych, co podnosi rozpoznawalność marki wśród potencjalnego rynku. Jest to również ważne przed planowanym IPO.

Wnioski
AWS i Cerebras wspólnie tworzą nową infrastrukturę dla dużych modeli językowych: układy Trainium 3 obsługują zapytania, a WSE generują odpowiedzi. Mimo że samodzielna usługa tylko na Trainium może być tańsza, rozwiązanie złożone obiecuje znaczne przyspieszenie tam, gdzie „czas to pieniądz”. To wzmacnia pozycję Amazona jako dużego klienta Nvidia i jednocześnie promuje własne układy AI firmy w kierunku wyższej efektywności.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować