MSI wprowadza serwer NVIDIA MGX AI do SC24


MSI, wiodący światowy dostawca wysokowydajnych rozwiązań serwerowych, zaprezentował swój serwer AI oparty na architekturze NVIDIA MGX na targach Supercomputing 2024 (SC24) w dniach 19–21 listopada na stoisku 3655. Zaprojektowany z myślą o maksymalizacji gęstości obliczeniowej, efektywności energetycznej i modułowa elastyczność, serwer AI oparty na MGX firmy MSI został zaprojektowany tak, aby sprostać intensywnym wymaganiom AI, HPC i aplikacji przetwarzających duże ilości danych, oferując skalowalną wydajność i odporność, której centra danych muszą dotrzymać kroku dzisiejszemu krajobrazowi obliczeń o wysokiej wydajności.

Według Danny’ego Hsu, dyrektora generalnego MSI Enterprise Platform Solutions, „najnowsze innowacje MSI oznaczają znaczący skok mocy obliczeniowej i wydajności, umożliwiając organizacjom maksymalizację wydajności, płynne dostosowywanie się do zmieniających się potrzeb i zwiększanie wydajności, budując solidny fundament pod przyszły rozwój w obliczeniach o wysokiej wydajności.”

Wykorzystując architekturę NVIDIA MGX, serwer AI CG480-S5063 firmy MSI przyspiesza czas wdrażania i optymalizuje elastyczność poprzez wykorzystanie modułowych elementów, które usprawniają procesy inżynieryjne. Takie podejście pozwala firmie MSI dostarczyć wysoce wszechstronny serwer AI zaprojektowany do obsługi szeregu obciążeń wymagających dużej mocy obliczeniowej, od sztucznej inteligencji i modeli dużych języków (LLM) po złożoną analizę danych, zapewniając przygotowaną na przyszłość infrastrukturę, która umożliwia organizacjom wspieranie szybko rozwijającej się sztucznej inteligencji aplikacji na ujednoliconej platformie.

Serwer CG480-S5063 AI jest wyposażony w dwa procesory Intel Xeon 6 i 8 gniazd GPU FHFL o podwójnej szerokości, obsługujących potężne procesory graficzne NVIDIA H200 NVL. NVIDIA H200 NVL idealnie nadaje się do chłodzonych powietrzem projektów szaf korporacyjnych o niższej mocy, które wymagają elastycznych konfiguracji, zapewniając przyspieszenie dla każdego obciążenia AI i HPC, niezależnie od rozmiaru. Dzięki maksymalnie czterem procesorom graficznym podłączonym przez NVIDIA NVLink i 1,5-krotnemu zwiększeniu pamięci, wnioskowanie w modelu dużego języka (LLM) można przyspieszyć do 1,8 razy, a aplikacje HPC osiągają do 1,3 razy większą wydajność w porównaniu z H100 NVL.

Serwer CG480-S5063 AI jest wyposażony w dwa procesory Intel Xeon 6 i 8 gniazd GPU FHFL o podwójnej szerokości, zapewniając niezrównaną moc przetwarzania równoległego dla intensywnych zadań AI. Dzięki 32 gniazdom DDR5 DIMM i 20 kieszeniom PCIe 5.0 E1.S NVMe zapewnia dużą przepustowość pamięci i szybki dostęp do danych, a gniazda PCIe 5.0 x16 umożliwiają elastyczną i szybką łączność sieciową. Ten serwer o rozmiarze 4U zapewnia wydajność i możliwości adaptacji wymagane w środowiskach sztucznej inteligencji nowej generacji, zapewniając organizacjom najnowocześniejsze rozwiązanie pozwalające stawić czoła nawet najbardziej złożonym wyzwaniom opartym na danych.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Threads umożliwia teraz użytkownikom śledzenie kont fediverse – z ograniczeniami

Meta od początku budowała platformę do mikroblogowania Threads z myślą o integracji z Fediverse. Integracja ta jest jednak wdrażana etapami i nadchodzi kolejna...

Policja nowojorska próbuje wyśledzić rower Citi Bike używany przez zabójcę dyrektora generalnego UnitedHealthcare

W środę rano ktoś zastrzelił dyrektora generalnego UnitedHealthcare Briana Thompsona przed hotelem Hilton w centrum Manhattanu, po czym odszedł, a następnie wsiadł do...

Jeff Bezos mówi, że „jest bardzo optymistyczny” co do drugiej kadencji Donalda Trumpa

Jeff Bezos i prezydent-elekt Donald Trump nie dogadywali się, gdy Trump był ostatni raz w Białym Domu. Tym razem Bezos twierdzi, że jest...
Advertisment