SK hynix to jedyna firma na świecie, która opracowała i dostarczyła całą linię pamięci HBM, od pierwszej generacji (HBM1) do piątej generacji (HBM3E), od czasu wprowadzenia na rynek pierwszej na świecie pamięci HBM w 2013 r. Firma planuje utrzymać pozycję lidera na rynku pamięci AI, odpowiadając na rosnące potrzeby firm z branży AI i jako pierwsza w branży wprowadzić masową produkcję 12-warstwowej pamięci HBM3E.
Według firmy 12-warstwowy produkt HBM3E spełnia najwyższe światowe standardy we wszystkich obszarach, które są niezbędne dla pamięci AI, w tym szybkości, pojemności i stabilności. SK hynix zwiększyło prędkość operacji pamięci do 9,6 Gb/s, co jest najwyższą prędkością pamięci dostępną obecnie. Jeśli Llama 3 70B, Large Language Model (LLM), jest napędzany przez pojedynczy procesor graficzny wyposażony w cztery produkty HBM3E, może odczytać 70 miliardów parametrów łącznie 35 razy w ciągu sekundy.
SK hynix zwiększyło pojemność o 50% poprzez ułożenie 12 warstw 3 GB chipów DRAM o tej samej grubości co poprzedni ośmiowarstwowy produkt. Aby to osiągnąć, firma uczyniła każdy chip DRAM o 40% cieńszym niż wcześniej i ułożyła go pionowo przy użyciu technologii TSV.
Firma rozwiązała również problemy strukturalne wynikające z układania cieńszych chipów wyżej, stosując swoją podstawową technologię, proces Advanced MR-MUF. Pozwala to na zapewnienie o 10% wyższej wydajności rozpraszania ciepła w porównaniu z poprzednią generacją oraz zabezpieczenie stabilności i niezawodności produktu poprzez ulepszone kontrolowanie odkształceń.
„SK hynix po raz kolejny przełamało technologiczne ograniczenia, demonstrując naszą pozycję lidera w branży pamięci AI” — powiedział Justin Kim, prezes (szef AI Infra) w SK hynix. „Będziemy kontynuować naszą pozycję jako globalny dostawca pamięci AI nr 1, ponieważ stale przygotowujemy produkty pamięci nowej generacji, aby sprostać wyzwaniom ery AI”.