Szybki rozwój sztucznej inteligencji napędza popyt na potężną i wydajną infrastrukturę w różnych branżach. Aby wesprzeć tę ekspansję, chłodzenie cieczą staje się niezbędne do zarządzania ciepłem w wysokowydajnych fabrykach sztucznej inteligencji. Maksymalizując wydajność i redukując koszty operacyjne, chłodzone cieczą fabryki sztucznej inteligencji odgrywają kluczową rolę w przyspieszaniu wdrażania sztucznej inteligencji i napędzaniu kolejnej fali innowacji.
Zaprojektowany dla nowoczesnych fabryk sztucznej inteligencji, ASRock Rack 4U16X-GNR2/ZC zawiera platformę NVIDIA HGX B300 w obudowie rack 4U i zapewnia potężną wydajność obliczeniową i efektywność cieplną na potrzeby wnioskowania AI, wnioskowania agentowego i obciążeń AI w świecie fizycznym. System wykorzystuje technologię dwufazowego, bezwodnego chłodzenia cieczą firmy ZutaCore, która wykorzystuje nieprzewodzący, niekorodujący płyn dielektryczny do usuwania ciepła bezpośrednio z chipa. Zaprojektowany z myślą o niezawodności centrum danych, zapewnia bezpieczną pracę nawet w rzadkich przypadkach wycieku.
„Sztuczna inteligencja na dużą skalę wymaga infrastruktury, która nie tylko przyspiesza wdrożenie, ale także zapewnia większą efektywność energetyczną, aby spełnić dzisiejsze cele w zakresie zrównoważonego rozwoju” – powiedział Weishi Sa, prezes ASRock Rack. „Platforma NVIDIA HGX B300 ustanawia nowy standard w zakresie przyspieszonego przetwarzania danych, umożliwiając transformacyjną wydajność AI w różnych branżach. Dzięki 4U16X-GNR2/ZC, ASRock Rack dostarcza pierwszą na świecie platformę wyposażoną w NVIDIA HGX B300 z bezwodnym systemem chłodzenia cieczą, zaprojektowanym z myślą o wysokowydajnych, energooszczędnych operacjach AI. Ta innowacja rozwiązuje krytyczne wyzwania termiczne, jednocześnie umożliwiając centrom danych wydajne, bezpieczne i zrównoważone skalowanie”.
Podczas wydarzenia ASRock Rack zaprezentuje także chłodzony powietrzem 8U16X-GNR2 oparty na platformie NVIDIA HGX B300, zaprojektowany dla istniejącej infrastruktury centrum danych. System NVIDIA GB300 NVL72 jest zoptymalizowany pod kątem zmniejszenia kosztów przetwarzania tokenów i zwiększenia przepustowości w przypadku dużych obciążeń AI wrażliwych na opóźnienia. Zaprezentowana zostanie także platforma 4UXGM-GNR2 CX8 zbudowana w oparciu o architekturę referencyjną NVIDIA MGX, obejmującą procesory graficzne NVIDIA RTX PRO 6000 Blackwell Server Edition, karty NVIDIA ConnectX-8 SuperNIC i dodatkowe gniazda dla procesorów DPU NVIDIA BlueField-3, obsługujące aplikacje do wnioskowania AI i obliczeń wizualnych.
Oprócz serwerów AI, uczestnicy Globalnego Szczytu OCP 2025 będą mogli zapoznać się z innowacyjnymi platformami serwerów OCP firmy ASRock Rack, zaprojektowanymi dla środowisk hostingu w chmurze, w tym 4OU12N-AM5 zasilanym przez AMD EPYC4005, ekonomicznym 12-węzłowym serwerem OCP o dużej gęstości, który zapewnia niezawodną, niezbędną funkcjonalność dla skalowalnej infrastruktury chmurowej.