ASUS prezentuje fabrykę AI i serwery nowej generacji z systemami NVIDIA HGX B300 na targach OCP 2025



Firma ASUS ogłosiła dzisiaj swój udział w światowym szczycie OCP 2025, który odbędzie się w dniach 13–16 października w San Jose Convention Center, stoisko nr C15. Podczas wydarzenia firma ASUS zaprezentowała serwery AI serii XA NB3I-E12, oparte na systemie NVIDIA HGX B300 zintegrowanym z kartami NVIDIA ConnectX-8 InfiniBand SuperNIC, 5 gniazdami rozszerzeń PCIe, 32 modułami DIMM i 10 NVMe. Zaprojektowane dla przedsiębiorstw i dostawców usług w chmurze (CSP) zarządzających intensywnymi obciążeniami AI, serwery te zapewniają wyjątkową wydajność i stabilność, odblokowując pełny potencjał sztucznej inteligencji.

Od września tego roku rozpoczęły się dostawy serwerów ASUS AI POD opartych na NVIDIA GB300 NVL72 i XA NB3I-E12 opartych na NVIDIA HGX B300, zapewniając przedsiębiorstwom i dostawcom usług w chmurze wcześniejszy dostęp do najnowocześniejszej wydajności i niezawodności sztucznej inteligencji.

Kierowanie transformacją AI dzięki ASUS AI Factory

ASUS prezentuje także fabrykę sztucznej inteligencji ASUS zbudowaną na architekturze NVIDIA Blackwell. Polecane produkty obejmują ASUS AI POD zbudowany na platformie NVIDIA GB300 NVL72 oraz serwery XA NB3I-E12 akcelerowane przez system NVIDIA HGX B300. Rozwiązania te służą jako podstawowe elementy konstrukcyjne dla przedsiębiorstw zajmujących się sztuczną inteligencją.

ASUS AI Factory to kompleksowe, kompleksowe podejście, które integruje najnowocześniejszy sprzęt, zoptymalizowane platformy oprogramowania i profesjonalne usługi w celu przyspieszenia wdrażania sztucznej inteligencji w przedsiębiorstwach. Umożliwia organizacjom wdrażanie obciążeń AI z urządzeń brzegowych do wielkoskalowych środowisk superkomputerowych AI, obsługując różnorodne aplikacje, takie jak generatywna sztuczna inteligencja, przetwarzanie języka naturalnego i analizy predykcyjne. Łącząc serwery ASUS, moduły ASUS AI POD do montażu w szafie i konstrukcje o wysokim stopniu serwisowania, AI Factory zmniejsza złożoność wdrażania, poprawia wydajność operacyjną i maksymalizuje zasoby obliczeniowe.

Wszystkie te produkty są prezentowane na miejscu, co pozwala zobaczyć z pierwszej ręki, w jaki sposób AI Factory umożliwia przedsiębiorstwom i dostawcom usług w chmurze szybsze wprowadzanie innowacji, niezawodne skalowanie i uwalnianie pełnego potencjału sztucznej inteligencji w różnych branżach – od automatyzacji produkcji po inicjatywy inteligentnych miast. Ten holistyczny ekosystem zapewnia bezproblemową integrację, elastyczne wdrażanie i skalowalność wymaganą w szybko rozwijającym się środowisku sztucznej inteligencji.

Co więcej, w ramach potężnych rozwiązań wnioskowania AI, od 15 października będzie dostępny ASUS Ascent GX10, kompaktowy osobisty superkomputer AI akcelerowany przez NVIDIA GB10 Grace Blackwell Superchip. Zapewniający wydajność AI do 1 petaFLOP dla wymagających obciążeń i wyposażony w procesor graficzny NVIDIA Blackwell, 20-rdzeniowy procesor Arm i 128 GB pamięci, GX10 obsługuje modele sztucznej inteligencji zawierające do 200 miliardów parametrów, umożliwiając wnioskowanie w skali petaflopów bezpośrednio na komputery programistów.

Reklama

Optymalizacja obciążeń AI przy użyciu procesorów AMD EPYC 9005
Ponadto firma ASUS zaprezentowała rozwiązania serwerowe zasilane procesorami AMD EPYC 9005, oferujące wysoką wydajność i gęstość dla wymagających zastosowań w centrach danych o kluczowym znaczeniu, opartych na sztucznej inteligencji. ASUS ESC8000A-E13X przyspiesza generatywne aplikacje AI i LLM, w pełni kompatybilny z NVIDIA RTX PRO 6000 Blackwell Server Edition, podczas gdy wbudowana karta NVIDIA ConnectX-8 SuperNIC obsługuje 400G InfiniBand/Ethernet na port QSFP, zapewniając ultraniskie opóźnienia i łączność o dużej przepustowości, umożliwiając niezrównaną skalowalną wydajność dzięki NVIDIA Platformy sieciowe Quantum InfiniBand lub Spectrum-X Ethernet.

Seria serwerów RS520QA-E13 to wysokowydajne systemy wielowęzłowe zoptymalizowane pod kątem HPC, EDA i przetwarzania w chmurze, obsługujące do 20 gniazd DIMM na węzeł z zaawansowanym rozszerzeniem pamięci CXL, PCIe 5.0 i OCP 3.0, maksymalizujące wydajność przy wymagających obciążeniach.

Dołącz do sesji Globalnego Szczytu ASUS 2025 OCP
Nie przegap 15-minutowej sesji poświęconej infrastrukturze ASUS dla każdej skali — od Edge do bilionów tokenów AI, która odbędzie się 15 października w Expo Hall Stage w godzinach 16:25–16:40. Podczas tej wnikliwej prezentacji podzielimy się tym, jak ASUS pomaga klientom budować przyszłościowe centra danych AI. Dowiedz się, jak nasze serwery, moduły ASUS AI POD do montażu w szafie serwerowej z procesorami NVIDIA GB200/GB300 NVL72 oraz konstrukcje o wysokim stopniu łatwości serwisowania radzą sobie z różnorodnymi obciążeniami AI i wyzwaniami związanymi z wdrażaniem.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

AirPods Pro 3 udowodniły, że się myliłem, ale teraz mają jedną niefortunną wadę

Gdy AirPods Pro 3 początkowo zadebiutowałem, byłem trochę niezdecydowany co do aktualizacji. Poczułem to AirPods Pro 2 nadal były doskonałe. Co więcej, jedna...

X zmienia sposób obsługi linków, aby utrzymać Cię w aplikacji

X testuje zmianę sposobu działania obsługuje linki na iOS dzięki czemu przyciski polubienia, odpowiedzi i ponownego opublikowania będą zawsze widoczne. Zwykle po kliknięciu...

X uruchamia rynek nieaktywnych uchwytów

Użytkownicy Premium Plus i Premium Business będą wkrótce mogli przeglądać i żądać nieaktywnych nazw użytkowników w serwisie X Obsługuj rynek. Uchwyty zostaną podzielone...
Advertisment