Micron przedstawiła pierwszą na świecie pamięć LPDDR‑SOCAMM2 o pojemności 256 GB, idealną dla AI.
Micron wprowadza nowy typ pamięci dla centrów danych
Firma Micron zaprezentowała na świecie pierwszy moduł pamięci RAM LPDRAM SOCAMM2 o pojemności 256 GB, specjalnie stworzony do wysokowydajnych centrów przetwarzania danych i zadań sztucznej inteligencji.
Co nowego?
Parametr Tradycyjna pamięć LPDRAM SOCAMM2 Zużycie energii – trzykrotnie niżej Rozmiar modułu – kompaktowy, wykonany z monolitycznych kryształów 32 Gb Przepustowość – zwiększona dla inferencji AI Opóźnienie – znacznie skrócone
W pracy na procesorze ośmikanalowym i 2 TB całkowitej pamięci, szybkość uruchamiania modeli AI (czas do pierwszego tokenu) rośnie ponad dwie i pół razy.
Dla kogo to jest potrzebne?
Moduł skierowany jest do:
- wdrażania dużych modeli językowych;
- wszelkich obciążeń roboczych, gdzie krytyczne są pojemność pamięci, przepustowość i opóźnienie;
- scenariuszy, w których część KV‑cache można przenosić z pamięci wideo do bardziej ekonomicznej pamięci systemowej bez utraty wydajności.
Form factor i współpraca
SOCAMM2 – kompaktowa wersja formatu RDIMM, ale o niższym zużyciu energii. Rozwój pamięci odbywał się we współpracy z Nvidia, co podkreśla jej przydatność do akceleracji GPU AI.
W ten sposób Micron oferuje efektywne rozwiązanie dla centrów danych, pozwalające zmniejszyć koszty energii i przestrzeni, jednocześnie poprawiając wydajność obciążeń AI.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować