Micron przedstawiła pierwszą na świecie pamięć LPDDR‑SOCAMM2 o pojemności 256 GB, idealną dla AI.

Micron przedstawiła pierwszą na świecie pamięć LPDDR‑SOCAMM2 o pojemności 256 GB, idealną dla AI.

9 hardware

Micron wprowadza nowy typ pamięci dla centrów danych

Firma Micron zaprezentowała na świecie pierwszy moduł pamięci RAM LPDRAM SOCAMM2 o pojemności 256 GB, specjalnie stworzony do wysokowydajnych centrów przetwarzania danych i zadań sztucznej inteligencji.

Co nowego?
Parametr Tradycyjna pamięć LPDRAM SOCAMM2 Zużycie energii – trzykrotnie niżej Rozmiar modułu – kompaktowy, wykonany z monolitycznych kryształów 32 Gb Przepustowość – zwiększona dla inferencji AI Opóźnienie – znacznie skrócone
W pracy na procesorze ośmikanalowym i 2 TB całkowitej pamięci, szybkość uruchamiania modeli AI (czas do pierwszego tokenu) rośnie ponad dwie i pół razy.

Dla kogo to jest potrzebne?
Moduł skierowany jest do:

- wdrażania dużych modeli językowych;

- wszelkich obciążeń roboczych, gdzie krytyczne są pojemność pamięci, przepustowość i opóźnienie;

- scenariuszy, w których część KV‑cache można przenosić z pamięci wideo do bardziej ekonomicznej pamięci systemowej bez utraty wydajności.

Form factor i współpraca
SOCAMM2 – kompaktowa wersja formatu RDIMM, ale o niższym zużyciu energii. Rozwój pamięci odbywał się we współpracy z Nvidia, co podkreśla jej przydatność do akceleracji GPU AI.

W ten sposób Micron oferuje efektywne rozwiązanie dla centrów danych, pozwalające zmniejszyć koszty energii i przestrzeni, jednocześnie poprawiając wydajność obciążeń AI.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować