Dzięki generatywnemu AI i LLMS coraz bardziej intensywnych wymagań obliczeniowych, przedsiębiorstwa kładą większy nacisk na infrastrukturę, która oferuje zarówno wydajność, jak i zdolność adaptacyjną. SG720-2A/OG720-2A pojawia się jako solidne rozwiązanie, łącząc integrację GPU o wysokiej gęstości i elastyczne opcje chłodzenia cieczy, pozycjonując się jako idealna platforma do szkolenia AI nowej generacji.
Kluczowe najważniejsze informacje:
- Obsługa do ośmiu procesorów graficznych serii MI350 z serii AMD (w tym MI350X / MI355X): umożliwia skalowalne trening o wysokiej gęstości dla LLM i generatywne aplikacje AI.
- Architektura podwójnego chłodzenia – chłodzenie powietrza i cieczy: zoptymalizowane pod kątem obciążeń o wysokiej gęstości termicznej i różnorodnych scenariuszy wdrażania, zwiększając wydajność cieplną i elastyczność infrastruktury. Dwufazowy roztwór chłodzenia cieczy, opracowany z Zutacore, wykorzystuje 2-fazowy roztwór chłodzenia cieczy DLC Hypercool Zutacore, zapewniając stabilną i wyjątkową wydajność termiczną, nawet w ekstremalnych środowiskach obliczeniowych.
- Zaawansowana konfiguracja architektury i pamięci: zbudowana na architekturze cDNA 4 z 288 GB pamięci HBM3E i przepustowością 8 TB/s, obsługującymi formaty danych FP6 i FP4, zoptymalizowane dla aplikacji AI i HPC.
- Szybka wydajność interkonect: wyposażona w PCIE Gen 5 i AMD Infinity Fabric do orkiestracji wielu GPU i wysokiej przepustowości komunikacji, zmniejszając opóźnienie i zwiększając wydajność wnioskowania AI.
- Kompleksowe wsparcie dla głównych stosów AI open source: w pełni kompatybilne z ROCM, Pytorch, TensorFlow i innymi-nieruchomości programistów do usprawnienia integracji modelu AI i przyspieszenia czasu na rynki.
- Kompatybilność i modułowa konstrukcja: Obsługuje standardy stojakowe EIA 19 “i ORV3 21” z modułową architekturą dla uproszczonych aktualizacji i konserwacji w różnych środowiskach centrów danych.
Compal utrzymywał długotrwałą, strategiczną współpracę z AMD w wielu generacjach platform serwerów. Od projektowania GPU o wysokiej gęstości i wdrażania chłodzenia cieczy po otwartą integrację ekosystemu, obie firmy nadal opracowują rozwiązania, które zwiększają wydajność i zrównoważony rozwój w operacjach centrów danych.
„Przyszłość sztucznej inteligencji i HPC nie dotyczy tylko prędkości, chodzi o inteligentną integrację i zrównoważone wdrożenie. Każdy serwer, który budujemy, ma na celu rozwiązywanie rzeczywistych wyzwań technicznych i operacyjnych, a nie tylko wypychanie specyfikacji. Powiedział Alan Chang, wiceprezes grupy biznesowej Infrastructure Solutions w Compal.
Seria zadebiutowała w Avancing AI 2025 i została jednocześnie zaprezentowana na ISC 2025 w Europie. Dzięki tej podwójnej ekspozycji, Compal dalej rozszerza swoją globalną sieć widoczności i partnerstwa w dziedzinie sztucznej inteligencji i HPC, wykazując silne zaangażowanie w inteligentne obliczenia i międzynarodowy rozwój strategiczny nowej generacji.