Spotkanie systemów NVIDIA Grace Hopper w GTC


Duch pionierki oprogramowania Grace Hopper będzie nadal obecny w NVIDIA GTC. Przyspieszone systemy wykorzystujące potężne procesory – nazwane na cześć pioniera programowania – zostaną zaprezentowane podczas globalnej konferencji poświęconej sztucznej inteligencji, która odbędzie się w dniach 18–21 marca, i będą gotowe przenieść obliczenia na wyższy poziom. Twórcy systemów zaprezentują ponad 500 serwerów w różnych konfiguracjach w 18 szafach, wszystkie wyposażone w superchipy NVIDIA GH200 Grace Hopper. Stanowią one największy pokaz na stoisku firmy NVIDIA w Centrum Kongresowym w San Jose, wypełniając pawilon MGX.

MGX skraca czas wprowadzenia produktu na rynek
NVIDIA MGX to projekt umożliwiający budowę akcelerowanych serwerów z dowolną kombinacją procesorów graficznych, procesorów i jednostek przetwarzania danych (DPU) dla szerokiej gamy sztucznej inteligencji, obliczeń o wysokiej wydajności i aplikacji NVIDIA Omniverse. Jest to modułowa architektura referencyjna do stosowania w przypadku wielu generacji produktów i obciążeń. Uczestnicy GTC będą mogli z bliska przyjrzeć się modelom MGX dostosowanym do zastosowań korporacyjnych, chmurowych i telekomunikacyjnych, takich jak generatywne wnioskowanie AI, rekomendacje i analiza danych. W pawilonie zaprezentowane zostaną akcelerowane systemy wyposażone w pojedyncze i podwójne superchipy GH200 w obudowach 1U i 2U, połączone za pośrednictwem procesorów DPU NVIDIA BlueField-3 i sieci NVIDIA Quantum-2 400 Gb/s InfiniBand za pośrednictwem kabli i transceiverów LinkX. Systemy obsługują standardy branżowe dotyczące 19- i 21-calowych obudów stelażowych, a wiele z nich zapewnia wnęki E1.S na nieulotną pamięć masową.

Grace Hopper w centrum uwagi
Oto próbka dostępnych obecnie systemów MGX:

  • MECAI firmy ASRock RACK o wymiarach 450 x 445 x 87 mm przyspiesza usługi AI i 5G w ograniczonych przestrzeniach na obrzeżach sieci telekomunikacyjnych.
  • Serwer MGX firmy ASUS, ESC NM2N-E1, można umieścić w stojaku mieszczącym do 32 procesorów GH200 i obsługującym węzły chłodzone powietrzem i wodą.
  • Foxconn oferuje pakiet systemów MGX, w tym model 4U, w którym można umieścić maksymalnie osiem procesorów graficznych NVIDIA H100 NVL PCIe Tensor Core.
  • GIGABYTE XH23-VG0-MGX może pomieścić mnóstwo pamięci w sześciu 2,5-calowych zatokach Gen5 NVMe z możliwością wymiany podczas pracy i dwóch gniazdach M.2.
  • Systemy Inventec można montować w szafach 19- i 21-calowych i wykorzystywać trzy różne rozwiązania chłodzenia cieczą.
  • Lenovo dostarcza całą gamę serwerów MGX o wysokości 1U, 2U i 4U, w tym modele obsługujące bezpośrednie chłodzenie cieczą.
  • Chłodzony powietrzem serwer Pegatron AS201-1N0 zawiera procesor DPU BlueField-3 do obsługi sieci definiowanej programowo i przyspieszanej sprzętowo.
  • Firma QCT może połączyć 16 systemów QuantaGrid D74S-IU, każdy z dwoma superchipami GH200, w jednym QCT QoolRack.
  • ARS-111GL-NHR firmy Supermicro z dziewięcioma wentylatorami z możliwością wymiany podczas pracy jest częścią portfolio systemów procesorów GH200 i NVIDIA Grace chłodzonych powietrzem i cieczą.
  • Wiwynn SV7200H, podwójny system GH200 o wysokości 1U, obsługuje procesor DPU BlueField-3 i podsystem chłodzenia cieczą, którym można zdalnie zarządzać.
  • Serwery MGX firmy Wistron to systemy GPU o wysokości 4U do wnioskowania AI i mieszanych obciążeń, obsługujące do ośmiu akceleratorów w jednym systemie.

Nowe serwery stanowią uzupełnienie trzech przyspieszonych systemów korzystających z MGX, ogłoszonych na targach COMPUTEX w maju ubiegłego roku – ARS-221GL-NR firmy Supermicro z procesorem Grace oraz QuantaGrid S74G-2U i S74GM-2U firmy QCT zasilanych przez GH200.

Pakiety Grace Hopper dwa w jednym
Konstruktorzy systemów wybierają procesor hybrydowy, ponieważ ma on dużą moc.

Superchipy GH200 łączą w sobie wysokowydajny, energooszczędny procesor Grace z potężnym procesorem graficznym NVIDIA H100. Dzielą setki gigabajtów pamięci poprzez szybkie łącze NVIDIA NVLink-C2C.

W rezultacie powstał zespół procesora i pamięci, który doskonale nadaje się do wykonywania najbardziej wymagających zadań, takich jak uruchamianie dużych modeli językowych. Mają pamięć i szybkość niezbędną do łączenia generatywnych modeli sztucznej inteligencji ze źródłami danych, które mogą poprawić ich dokładność za pomocą generowania wspomaganego wyszukiwaniem, czyli RAG.

Reklama

Polecający działają 4x szybciej
Ponadto GH200 Superchip zapewnia większą wydajność i do 4 razy większą wydajność niż użycie procesora graficznego H100 z tradycyjnymi procesorami do zadań takich jak rekomendowanie zakupów online lub strumieniowe przesyłanie multimediów.

Podczas swojego debiutu w branżowych testach porównawczych MLPerf w listopadzie zeszłego roku, systemy GH200 przeprowadziły wszystkie testy wnioskowania dotyczące centrów danych, rozszerzając i tak wiodącą wydajność procesorów graficznych H100.

Pod każdym względem systemy GH200 wznoszą się na nowy poziom rewolucji obliczeniowej, której ich imiennik pomógł rozpocząć na pierwszych komputerach typu mainframe ponad siedem dekad temu.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Senat ponownie zatwierdza program szpiegowski FISA, ale nie przed jego wygaśnięciem o północy

Senat przyjął ustawę ponownie zatwierdzającą art. 720 ustawy o nadzorze wywiadu zagranicznego (FISA), kontrowersyjny program umożliwiający szpiegowanie zagranicznych „celów” bez nakazu ale długa,...

Przewodnik po Dniu Społeczności Pokémon Go Bellsprout

PokemonGo organizuje wydarzenie z okazji Dnia Społeczności Bellsprout 20 kwietnia od 14:00 do 17:00 czasu lokalnego. Zgodnie z oczekiwaniami w przypadku...

Co oznacza restrukturyzacja Google dla Pixela i Androida?

Kluczowe dania na wynos Wewnętrzne zmiany Google pod rządami Ricka Osterloha mają na celu usprawnienie działania Pixela i Androida oraz usprawnienie...
Advertisment