![](http://cdn.benchmark.pl/thumbs/uploads/article/97303/MODERNICON/8e66106af71dec78403b23381a9b7c1ae17b46bb.jpg/320x0x1.jpg)
To może być rewolucja. NVIDIA w tajemnicy pracuje nad nowym typem pamięci
Nadchodzi nowy standard pamięci RAM. Jak donosi serwis SEDaily, NVIDIA nawiązała współpracę z czołowymi producentami pamięci, aby opracować standard SOCAMM, który umożliwi tworzenie miniaturowych komputerów do sztucznej inteligencji.
Sztuczna inteligencja rozwija się w niezwykle szybkim tempie, co ma ogromny wpływ na rozwój technologii. Dotyczy to także podzespołów komputerowych, gdzie producenci coraz częściej koncentrują się na optymalizacji pod kątem AI.
NVIDIA, jako jeden z liderów branży, postanowiła wykorzystać ten potencjał i ma pracować nad nowym standardem pamięci RAM, który pozwoli wspierać rozwój nowych komputerów.
Nowe pamięci SOCAMM
Jak donosi serwis SEDaily, NVIDIA nawiązała współpracę z czołowymi producentami pamięci: SK Hynix, Micron i Samsung, aby stworzyć nowy standard pamięci SOCAMM (System On Chip Advanced Memory Module), który będzie wykorzystywany w miniaturowych komputerach do obsługi sztucznej inteligencji.
Pamięci SOCAMM miałyby znaleźć zastosowanie w miniaturowych komputerkach do obsługi AI. Na zdjęciu model NVIDIA Project DIGITS - miniaturowy superkomputer do AI
Moduły SOCAMM miałyby wprowadzać znaczące ulepszenia w stosunku do modułów pamięci LPCAMM (Low-Power Compression Attached Memory Module) oraz tradycyjnej pamięci DRAM, dzięki kilku kluczowym zaletom.
SOCAMM ma być bardziej opłacalny w porównaniu do tradycyjnej pamięci DRAM oraz mniejszych modułów SO-DIMM. Dodatkowo, SOCAMM ma korzystać z energooszczędnych pamięci LPDDR5X, co pozwoli uzyskać lepszą efektywność energetyczną całego komputera.
Nowy standard ma wykorzystywać specjalne złącze, które umożliwi łatwą rozbudowę podsystemu pamięci. Według źródła, złącze SOCAMM będzie miało większą liczbę styków w porównaniu do LPCAMM i tradycyjnych modułów DRAM – SOCAMM dysponuje aż 694 stykami, przewyższając 644 porty LPCAMM oraz 260 portów tradycyjnej pamięci DRAM.
Pamięci SOCAMM jeszcze w tym roku
Szczegóły dotyczące standardu SOCAMM pozostają wciąż nieznane, ponieważ firma Nvidia prawdopodobnie opracowuje ten standard bez współpracy z organizacją JEDEC (Joint Electron Device Engineering Council).
Według źródeł, masowa produkcja pamięci SOCAMM ma rozpocząć się jeszcze w 2025 roku. Obecnie trwają testy pamięci, a NVIDIA oraz firmy zajmujące się produkcją pamięci wymieniają się prototypami SOCAMM w celu przeprowadzenia testów wydajności.
Komentarze
2"dysponuje aż 694 stykami, przewyższając 644 porty LPCAMM oraz 260 portów tradycyjnej pamięci DRAM."
weź mi wytłumacz co to za bełkot? co to za "porty"?
i co teraz? wywalisz mój kolejny słusznie krytyczny komentarz aby ukryć swoją nieudolność? od lat ci podsyłam konstruktywną krytykę, a w odpowiedzi otrzymuję BANA albo wywalenie konta. no wielkie "gratulacje"
Nie sądzę aby ta pamięć była tania, i to przy tak ogromnej ilości styków. to i tak ma bazować na kostkach LPDDR5x, różnica ma dotyczyć wyłącznie zastosowanego protokołu transmisji. cała reszta to pinologia. poza tym nie sądzę aby to miałoby być tańsze od tego co jest. zresztą jak to z pomysłami od pana "kurteczki" bywa, będzie bardzo, bardzo drogo. Ale taka koncepcja super szybkiej pamięci z własnościowym protokołem już była, zdaje się że to było RDRAM Rambus. Pewna firemka się wycwaniła, i bardzo wysoko wyceniła to co zdążyli opatentować, i nad czym wcześniej pracowali wspólnie z kilkoma dużymi producentami. Intel na tym się przejechał najbardziej, i z powodu ogromnej ceny tych Rambusów, musiał rakiem wycofać się do DDR.
ale zaraz zaraz, czy my przypadkiem nie mamy i nie używamy jakiegoś rodzaju hiper szybkiej pamięci? a no tak, to się nazywa ........ HBM. To chyba nie jest żaden problem, aby kosztem zmniejszenia pojemności, zmniejszyć powierzchnię takiego chipu. dla mniejszych (geometrycznie) chipów jest mniej odpadów, chociaż tutaj uzysk jest akurat bardzo dobry. Jednak problemem jest to, że HBM jest sklejany z osobno robionych warstw, dlatego jest taki drogi. Dla kontrastu, pamięć Flash wielowarstwowa 3D, producenci już robią ponad 100 warstwowe, w sensie ponad 100 kompletnych funkcjonalnie warstw z tranzystorami. Ale uwaga, w pamięciach Flash wszystkie te warstwy robi się na jednym podłożu, co znakomicie tnie koszty.
W przypadku HBM, każda warstwa jest robiona na osobnym podłożu, jest odcinany plasterek, i dopiero wtedy klei się to w stosy, zdaje się obecnie jest to 8 warstw, plus warstwa na spodzie pełniąca rolę kontrolera. Gdyby udało się zrobić RAM wielowarstwowo na jednym podłożu, to by była PETARDA. Ale póki co nikt nie próbuje.