Nadchodząca seria akceleratorów MI450 firmy AMD oferuje do 432 GB pamięci HBM4 i przepustowość 20 TB/s dla każdego procesora graficznego. Pozwala to na uczenie znacznie większych modeli sztucznej inteligencji w pamięci, podczas gdy standardy wzajemnych połączeń AMD UALink i UALoE umożliwiają procesorom graficznym komunikację ze spójnością sprzętową. Zmniejsza to opóźnienia i routing procesora. Każdy procesor graficzny może także współpracować z maksymalnie trzema kartami sieciowymi Pensando „Vulcano” AI-NIC o przepustowości 800 Gb/s. Obsługują one zaawansowane standardy sieciowe RoCE i UEC, umożliwiając rozproszone szkolenia o wysokiej przepustowości. Uzupełnieniem nowych jednostek będą procesory AMD EPYC „Venice” z funkcjami poufnego przetwarzania danych oraz stos oprogramowania AMD ROCm typu open source.
Procesory graficzne AMD Instinct serii MI450 w klastrze Oracle będą oferować:
- Przełomowe obliczenia i pamięć: pomagają klientom osiągać szybsze wyniki, radzić sobie z bardziej złożonymi obciążeniami i ograniczać potrzebę partycjonowania modelu poprzez zwiększenie przepustowości pamięci na potrzeby modeli szkoleniowych AI. Każdy procesor graficzny AMD Instinct z serii MI450 zapewni do 432 GB pamięci HBM4 i przepustowość pamięci 20 TB/s, umożliwiając klientom trenowanie i wnioskowanie modeli o 50 procent większych niż poprzednie generacje całkowicie w pamięci.
- Zoptymalizowana przez firmę AMD konstrukcja szafy „Helios”: umożliwia klientom działanie na dużą skalę przy jednoczesnej optymalizacji gęstości wydajności, kosztów i efektywności energetycznej dzięki gęstym, chłodzonym cieczą szafom z 72 procesorami graficznymi. Konstrukcja szafy AMD „Helios” integruje skalowalną łączność UALoE i opartą na sieci Ethernet konsorcjum Ultra Ethernet Consortium (UEC), skalowalną w poziomie sieć, aby zminimalizować opóźnienia i zmaksymalizować przepustowość między modułami i stojakami.
- Wydajny węzeł główny: pomaga klientom zmaksymalizować wykorzystanie klastra i usprawnić przepływy pracy na dużą skalę, przyspieszając koordynację zadań i przetwarzanie danych w architekturze składającej się z procesorów AMD EPYC nowej generacji, o nazwie kodowej „Venice”. Ponadto te procesory EPYC będą oferować możliwości poufnego przetwarzania danych i wbudowane funkcje zabezpieczeń, które pomogą kompleksowo chronić wrażliwe obciążenia AI.
- Sieci konwergentne przyspieszane przez DPU: umożliwiają pozyskiwanie danych z szybkością łącza w celu poprawy wydajności i poprawy stanu bezpieczeństwa wielkoskalowej sztucznej inteligencji i infrastruktury chmurowej. Zbudowana w oparciu o w pełni programowalną technologię AMD Pensando DPU, konwergentna sieć akcelerowana przez DPU oferuje bezpieczeństwo i wydajność wymaganą centrom danych do obsługi nowej ery szkoleń AI, wnioskowania i obciążeń w chmurze.
- Skalowalna sieć dla sztucznej inteligencji: umożliwia klientom korzystanie z ultraszybkich rozproszonych szkoleń i zoptymalizowanej komunikacji zbiorowej dzięki przygotowanej na przyszłość otwartej strukturze sieciowej. Każdy procesor graficzny może być wyposażony w maksymalnie trzy karty sieciowe AMD Pensando „Vulcano” AI-NIC 800 Gb/s, zapewniając klientom bezstratną, szybką i programowalną łączność, która obsługuje zaawansowane standardy RoCE i UEC.
- Innowacyjna struktura UALink i UALoE: pomaga klientom efektywnie zwiększać obciążenia, redukować wąskie gardła pamięci i koordynować duże modele obejmujące wiele bilionów parametrów. Skalowalna architektura minimalizuje przeskoki i opóźnienia bez routingu przez procesory i umożliwia bezpośrednie, spójne sprzętowo tworzenie sieci i współdzielenie pamięci pomiędzy procesorami graficznymi w szafie za pośrednictwem protokołu UALink przesyłanego przez strukturę UALoE. UALink to otwarty, szybki standard połączeń wzajemnych, stworzony specjalnie dla akceleratorów AI i obsługiwany przez szeroki ekosystem branżowy. W rezultacie klienci zyskują elastyczność, skalowalność i niezawodność niezbędną do obsługi najbardziej wymagających obciążeń AI w infrastrukturze opartej na otwartych standardach.
- Stos oprogramowania AMD ROCm typu open source: umożliwia szybkie wprowadzanie innowacji, oferuje swobodę wyboru dostawcy i upraszcza migrację istniejących obciążeń AI i HPC, zapewniając klientom otwarte, elastyczne środowisko programistyczne, w tym popularne platformy, biblioteki, kompilatory i środowiska wykonawcze.
- Zaawansowane partycjonowanie i wirtualizacja: umożliwia klientom bezpieczne udostępnianie klastrów i przydzielanie procesorów graficznych w zależności od potrzeb w zakresie obciążenia, ułatwiając bezpieczne i wydajne wykorzystanie zasobów poprzez szczegółowe partycjonowanie procesorów graficznych i podów, wirtualizację SR-IOV i solidną obsługę wielu dzierżawców.