Zaktualizowany plan działania rozpoczyna się od nowego akceleratora AMD Instinct MI325X, który będzie dostępny w czwartym kwartale 2024 r. Następnie oczekuje się, że seria AMD Instinct MI350, oparta na nowej architekturze AMD CDNA 4, będzie dostępna w 2025 r., zapewniając 35-krotność wzrost wydajności wnioskowania AI w porównaniu z serią AMD Instinct MI300 z architekturą AMD CDNA 3. Seria AMD Instinct MI400, która ma pojawić się w 2026 roku, jest oparta na architekturze AMD CDNA „Next”.
„Akceleratory AMD Instinct MI300X cieszą się coraz większym zainteresowaniem u wielu partnerów i klientów, w tym Microsoft Azure, Meta, Dell Technologies, HPE, Lenovo i innych, co jest bezpośrednim skutkiem wyjątkowej wydajności i wartości akceleratora AMD Instinct MI300X” – powiedział Brad McCredie, wiceprezes korporacyjny, Data Center Accelerated Compute, AMD. „Dzięki naszej zaktualizowanej rocznej częstotliwości dostarczania produktów nieprzerwanie pracujemy nad tempem innowacji, zapewniając wiodące możliwości i wydajność, których branża sztucznej inteligencji i nasi klienci oczekują, że będą napędzać kolejną ewolucję szkoleń i wnioskowania w zakresie sztucznej inteligencji w centrach danych”.
Ekosystem oprogramowania AMD AI dojrzewa
Otwarty stos oprogramowania AMD ROCm 6 wciąż się rozwija, dzięki czemu akceleratory AMD Instinct MI300X zapewniają imponującą wydajność w przypadku niektórych najpopularniejszych procesorów LLM. Na serwerze wyposażonym w osiem akceleratorów AMD Instinct MI300X i procesor ROCm 6 z procesorem Meta Llama-3 70B klienci mogą uzyskać 1,3 razy lepszą wydajność wnioskowania i generowanie tokenów w porównaniu z konkurencją. Na pojedynczym akceleratorze AMD Instinct MI300X z ROCm 6 klienci mogą uzyskać lepszą wydajność wnioskowania i przepustowość generowania tokenów w porównaniu do konkurencji o 1,2x na Mistral-7B3. AMD podkreśliło również, że Hugging Face, największe i najpopularniejsze repozytorium modeli AI, testuje obecnie 700 000 swoich najpopularniejszych modeli co noc, aby mieć pewność, że będą działać od razu po wyjęciu z pudełka z akceleratorami AMD Instinct MI300X. Ponadto AMD kontynuuje prace nad popularnymi platformami AI, takimi jak PyTorch, TensorFlow i JAX.
AMD prezentuje nowe akceleratory i roczny plan działania dotyczący kadencji
Podczas przemówienia AMD ujawniło zaktualizowany roczny harmonogram realizacji planu działania akceleratora AMD Instinct, aby sprostać rosnącemu zapotrzebowaniu na większą moc obliczeniową AI. Pomoże to zapewnić, że akceleratory AMD Instinct będą napędzać rozwój pionierskich modeli sztucznej inteligencji nowej generacji. W zaktualizowanym rocznym planie działania AMD Instinct podkreślono:
Nowy akcelerator AMD Instinct MI325X, który zapewni 288 GB pamięci HBM3E i 6 terabajtów przepustowości pamięci na sekundę, wykorzystuje tę samą branżową konstrukcję serwerów Universal Baseboard, co seria AMD Instinct MI300, i będzie ogólnie dostępny w czwartym kwartale 2024 r. akcelerator będzie miał wiodącą w branży pojemność pamięci i przepustowość, odpowiednio 2x i 1,3x lepszą niż konkurencja oraz 1,3x lepszą wydajność obliczeniową niż konkurencja.
Pierwszy produkt z serii AMD Instinct MI350, akcelerator AMD Instinct MI350X, jest oparty na architekturze AMD CDNA 4 i ma być dostępny w 2025 roku. Będzie on wykorzystywał tę samą branżową konstrukcję serwerów Universal Baseboard, co inne akceleratory serii MI300 i zostanie zbudowany w oparciu o zaawansowaną technologię procesową 3 nm, będzie obsługiwał typy danych AI FP4 i FP6 oraz posiadał aż 288 GB pamięci HBM3E.
Oczekuje się, że architektura AMD CDNA „Next”, która będzie zasilać akceleratory AMD Instinct serii MI400, będzie dostępna w 2026 r. i będzie zapewniać najnowsze funkcje i możliwości, które pomogą odblokować dodatkową wydajność i efektywność na potrzeby wnioskowania i szkolenia sztucznej inteligencji na dużą skalę.
Na koniec firma AMD podkreśliła, że popyt na akceleratory AMD Instinct MI300X stale rośnie, a liczni partnerzy i klienci korzystają z akceleratorów do obsługi wymagających obciążeń AI, w tym:
- Microsoft Azure korzystający z akceleratorów usług Azure OpenAI i nowych maszyn wirtualnych Azure ND MI300X V5.
- Firma Dell Technologies wykorzystuje akceleratory MI300X w serwerze PowerEdge XE9680 do obsługi obciążeń AI w przedsiębiorstwach.
- Supermicro dostarcza wiele rozwiązań z akceleratorami AMD Instinct.
- Lenovo wprowadza innowacje hybrydowej sztucznej inteligencji w ThinkSystem SR685a V3
- HPE używa ich do przyspieszania obciążeń AI w HPE Cray XD675.