Micron ogłasza 12-wysoką pamięć HBM3E o pojemności 36 GB i przepustowości 1,2 TB/s


W miarę jak obciążenia AI ewoluują i rozszerzają się, przepustowość i pojemność pamięci stają się coraz bardziej krytyczne dla wydajności systemu. Najnowsze procesory graficzne w branży potrzebują najwyższej wydajności pamięci o dużej przepustowości (HBM), znacznej pojemności pamięci, a także zwiększonej efektywności energetycznej. Micron jest na czele innowacji w zakresie pamięci, aby sprostać tym potrzebom i obecnie wysyła HBM3E 12-high o zdolności produkcyjnej do kluczowych partnerów branżowych w celu kwalifikacji w całym ekosystemie AI.

Wiodący w branży dysk Micron HBM3E 12-high 36 GB charakteryzuje się znacznie niższym zużyciem energii niż oferowane przez naszych konkurentów dyski 8-high 24 GB, mimo że w pakiecie znajduje się o 50% większa pojemność pamięci DRAM
Micron HBM3E 12-high oferuje imponującą pojemność 36 GB, co stanowi wzrost o 50% w porównaniu z obecną ofertą HBM3E 8-high, umożliwiając uruchamianie większych modeli AI, takich jak Llama 2 z 70 miliardami parametrów, na jednym procesorze. Ten wzrost pojemności pozwala na szybszy wgląd, unikając odciążenia procesora i opóźnień w komunikacji GPU-GPU. Micron HBM3E 12-high 36 GB zapewnia znacznie niższe zużycie energii niż konkurencyjne rozwiązania HBM3E 8-high 24 GB. Micron HBM3E 12-high 36 GB oferuje ponad 1,2 terabajta na sekundę (TB/s) przepustowości pamięci przy prędkości pinu większej niż 9,2 gigabita na sekundę (Gb/s). Te połączone zalety Micron HBM3E oferują maksymalną przepustowość przy najniższym zużyciu energii i mogą zapewnić optymalne wyniki dla energochłonnych centrów danych. Ponadto Micron HBM3E 12-high zawiera w pełni programowalny MBIST, który może obsługiwać reprezentatywny dla systemu ruch z pełną prędkością specyfikacji, zapewniając lepsze pokrycie testami w celu przyspieszenia walidacji i umożliwiając szybsze wprowadzenie produktu na rynek, a także zwiększając niezawodność systemu.

Solidne wsparcie ekosystemu

Micron wysyła teraz gotowe do produkcji jednostki HBM3E 12-high do kluczowych partnerów branżowych w celu kwalifikacji w całym ekosystemie AI. Ten kamień milowy HBM3E 12-high pokazuje innowacje Micron w zakresie zaspokajania intensywnych pod względem danych wymagań rozwijającej się infrastruktury AI.

Micron jest również dumnym partnerem w 3DFabric Alliance firmy TSMC, który pomaga kształtować przyszłość innowacji w zakresie półprzewodników i systemów. Produkcja systemów AI jest złożona, a integracja HBM3E wymaga ścisłej współpracy między dostawcami pamięci, klientami i zewnętrznymi podmiotami zajmującymi się montażem i testowaniem półprzewodników (OSAT).

W niedawnej wymianie zdań Dan Kochpatcharin, szef działu zarządzania ekosystemem i sojuszami w TSMC, skomentował: „TSMC i Micron cieszą się długoterminowym strategicznym partnerstwem. Jako część ekosystemu OIP ściśle współpracowaliśmy, aby umożliwić systemowi Micron opartemu na HBM3E i projektowi opakowania typu chip-on-wafer-on-substrate (CoWoS) wsparcie innowacji AI naszych klientów”.

Podsumowując, oto najważniejsze cechy dysku Micron HBM3E 12-high 36 GB:

Reklama
  • Przeprowadzanie licznych kwalifikacji klientów: Micron wysyła do kluczowych partnerów branżowych jednostki produkcyjne o wysokości 12 cali, aby umożliwić przeprowadzenie kwalifikacji w całym ekosystemie sztucznej inteligencji.
  • Bezproblemowa skalowalność: Dzięki pojemności 36 GB (50% wzrost pojemności w porównaniu z obecną ofertą HBM3E) Micron HBM3E 12-high umożliwia centrom danych bezproblemowe skalowanie rosnących obciążeń AI.
  • Wyjątkowa wydajność: dysk Micron HBM3E 12-high 36 GB charakteryzuje się znacznie niższym zużyciem energii niż konkurencyjne rozwiązanie HBM3E 8-high 24 GB!
  • Wyższa wydajność: dzięki szybkości transmisji danych przekraczającej 9,2 gigabitów na sekundę (Gb/s) pamięć Micron HBM3E 12-high 36 GB zapewnia przepustowość pamięci przekraczającą 1,2 TB/s, umożliwiając błyskawiczny dostęp do danych w akceleratorach AI, superkomputerach i centrach danych.
  • Szybka walidacja: W pełni programowalne funkcje MBIST mogą działać z prędkością charakterystyczną dla ruchu w systemie, zapewniając lepsze pokrycie testami w celu przyspieszonej walidacji, co pozwala na szybsze wprowadzenie produktu na rynek i zwiększenie niezawodności systemu.

Patrząc w przyszłość

Wiodące portfolio pamięci i pamięci masowej dla centrów danych Micron zostało zaprojektowane tak, aby sprostać zmieniającym się wymaganiom generatywnych obciążeń AI. Od pamięci bliskiej pamięci (HBM) i pamięci głównej (dużej pojemności serwerowe RDIMM) po dyski SSD Gen 5 PCIe NVMe i dyski SSD typu data lake, Micron oferuje wiodące na rynku produkty, które skalują obciążenia AI wydajnie i skutecznie.

Podczas gdy Micron nadal koncentruje się na rozszerzaniu swojej pozycji lidera w branży, firma już patrzy w przyszłość dzięki swojej mapie drogowej HBM4 i HBM4E. To przyszłościowe podejście zapewnia, że ​​Micron pozostaje na czele rozwoju pamięci i pamięci masowej, napędzając kolejną falę postępów w technologii centrów danych.

Więcej informacji znajdziesz na stronie Strona Micron HBM3E.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Ile pieniędzy zarobił sklep z przedmiotami w Diablo 4?

Jeśli kiedykolwiek natkniesz się na jakieś naprawdę interesujące dane o tym, ile pieniędzy zarobiła gra wideo, możesz być pewien, że nie powinieneś ich...

Federico Viticci udostępnia szczegółową recenzję iOS 18: Mała, ale „zabawna” aktualizacja

Z dzisiejszym iOS 18 i iPadOS 18 wydania, Federico Viticci w MacStories powraca z dogłębną, coroczną recenzją najnowszych aktualizacji firmy Apple. Federico, ulubiony...

Copilot Pages to nowa platforma współpracy AI firmy Microsoft dla firm

Firma Microsoft ogłasza dziś nową funkcję Copilot Pages, która ma być kanwą do „współpracy AI w trybie wieloosobowym”. Copilot Pages umożliwia korzystanie z...
Advertisment