NVIDIA łączy skalowalne procesory Intel Xeon czwartej generacji z procesorami graficznymi H100


Sztuczna inteligencja leży u podstaw najbardziej rewolucyjnych innowacji ludzkości — od opracowywania szczepionek przeciwko COVID z niespotykaną szybkością i diagnozowania raka po napędzanie autonomicznych pojazdów i zrozumienie zmian klimatu. Praktycznie każda branża odniesie korzyści z przyjęcia sztucznej inteligencji, ale wraz ze wzrostem złożoności sieci neuronowych technologia ta wymaga coraz większych zasobów. Aby uniknąć nakładania niezrównoważonych wymagań na wytwarzanie energii elektrycznej w celu obsługi tej infrastruktury obliczeniowej, podstawowa technologia musi być tak wydajna, jak to tylko możliwe.

Przyspieszone przetwarzanie oparte na procesorach graficznych NVIDIA i platformie sztucznej inteligencji NVIDIA oferuje wydajność, która umożliwia centrom danych zrównoważone wprowadzanie przełomowych rozwiązań nowej generacji. A teraz, wraz z premierą skalowalnych procesorów Intel Xeon czwartej generacji, firma NVIDIA i jej partnerzy zapoczątkowali nową generację przyspieszonych systemów obliczeniowych, które zostały stworzone z myślą o energooszczędnej sztucznej inteligencji. W połączeniu z procesorami graficznymi NVIDIA H100 Tensor Core, systemy te mogą zapewnić znacznie wyższą wydajność, większą skalę i wyższą wydajność niż poprzednia generacja, zapewniając więcej mocy obliczeniowej i rozwiązywania problemów na wat.

Nowe procesory Intela będą używane w systemach NVIDIA DGX H100, a także w ponad 60 serwerach wyposażonych w procesory graficzne H100 od partnerów NVIDIA na całym świecie.

Superszybkość, wydajność i oszczędności dla korporacyjnej sztucznej inteligencji
Nadchodzące systemy oparte na rozwiązaniach NVIDIA i Intel pomogą przedsiębiorstwom obsługiwać obciążenia robocze średnio 25 razy wydajniej niż tradycyjne serwery centrów danych oparte wyłącznie na procesorach. Ta niesamowita wydajność w przeliczeniu na wat oznacza, że ​​do wykonania zadań potrzeba mniej energii, co pomaga zapewnić, że moc dostępna dla centrów danych jest wykorzystywana tak wydajnie, jak to tylko możliwe, aby doładować najważniejsze zadania.

W porównaniu z przyspieszonymi systemami poprzedniej generacji, ta nowa generacja serwerów z akceleracją NVIDIA przyspiesza szkolenie i wnioskowanie, aby zwiększyć efektywność energetyczną 3,5-krotnie – co przekłada się na realne oszczędności kosztów, a centra danych AI zapewniają ponad 3-krotnie niższy całkowity koszt posiadania.

Nowe procesory Intel Xeon czwartej generacji przenoszą więcej danych, aby przyspieszyć sztuczną inteligencję NVIDIA
Wśród funkcji nowego procesora Intel Xeon czwartej generacji jest obsługa PCIe Gen 5, która może podwoić szybkość przesyłania danych z procesora do procesorów graficznych NVIDIA i sieci. Większa liczba linii PCIe pozwala na większą gęstość procesorów graficznych i szybką sieć na każdym serwerze.

Szybsza przepustowość pamięci poprawia również wydajność obciążeń intensywnie korzystających z danych, takich jak sztuczna inteligencja, a prędkości sieci — do 400 gigabitów na sekundę (Gb/s) na połączenie — umożliwiają szybsze przesyłanie danych między serwerami a pamięcią masową.

Reklama

Systemy i serwery NVIDIA DGX H100 partnerów NVIDIA z procesorami graficznymi H100 PCIe są dostarczane z licencją na NVIDIA AI Enterprise, kompleksowy, bezpieczny, natywny dla chmury pakiet oprogramowania do tworzenia i wdrażania sztucznej inteligencji, zapewniający kompletną platformę do doskonałości w wydajnym korporacyjna sztuczna inteligencja.

Systemy NVIDIA DGX H100 Superdoładuj wydajność dla superrozmiarowej sztucznej inteligencji
Jako czwarta generacja pierwszorzędnej na świecie infrastruktury sztucznej inteligencji, systemy NVIDIA DGX H100 zapewniają w pełni zoptymalizowaną platformę obsługiwaną przez system operacyjny przyspieszonego centrum danych, oprogramowanie NVIDIA Base Command.

Każdy system DGX H100 jest wyposażony w osiem procesorów graficznych NVIDIA H100, 10 kart sieciowych NVIDIA ConnectX-7 i dwa procesory Intel Xeon Scalable 4.

W połączeniu z technologią sieciową NVIDIA, architektura ta przyspiesza wydajne przetwarzanie na dużą skalę, zapewniając do 9 razy wyższą wydajność niż poprzednia generacja i od 20 do 40 razy wyższą wydajność niż nieakcelerowane dwuprocesorowe serwery X86 do szkoleń AI i obciążeń HPC. Jeśli model językowy wymagał wcześniej 40 dni na trenowanie w klastrze serwerów opartych wyłącznie na architekturze X86, karta NVIDIA DGX H100 z procesorami Intel Xeon i obsługą sieci ConnectX-7 mogła wykonać tę samą pracę w zaledwie 1-2 dni.

Systemy NVIDIA DGX H100 to elementy składowe gotowego do użycia w przedsiębiorstwie, gotowego do użycia w przedsiębiorstwie, gotowego do użycia rozwiązania NVIDIA DGX SuperPOD, który zapewnia do jednego eksaflopa wydajności sztucznej inteligencji, zapewniając skok wydajności w przypadku wdrażania sztucznej inteligencji w przedsiębiorstwach na dużą skalę.

Partnerzy NVIDIA zwiększają wydajność centrów danych
W przypadku obciążeń centrów danych wykorzystujących sztuczną inteligencję procesory graficzne NVIDIA H100 umożliwiają przedsiębiorstwom wydajniejsze tworzenie i wdrażanie aplikacji.

Zapewniając przedsiębiorstwom na całym świecie nową generację wydajności i energooszczędności, szeroka oferta systemów z procesorami graficznymi H100 i skalowalnymi procesorami Intel Xeon czwartej generacji zostanie wkrótce udostępniona przez partnerów NVIDIA, w tym ASUS, Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo, QCT i Supermicro.

Jako lider nadchodzącego wzrostu wydajności, Lenovo ThinkSystem Instytutu Flatiron z procesorami graficznymi NVIDIA H100 znajduje się na szczycie najnowszej listy Green500 — a technologie NVIDIA zasilają 23 z 30 najlepszych systemów na liście. System Flatiron wykorzystuje procesory Intel poprzedniej generacji, więc od systemów wchodzących obecnie na rynek oczekuje się jeszcze większej wydajności.

Ponadto połączenie serwerów z technologią sieciową NVIDIA ConnectX-7 i procesorami Intel Xeon Scalable czwartej generacji zwiększy wydajność oraz zmniejszy infrastrukturę i zużycie energii.

Adaptery NVIDIA ConnectX-7 obsługują PCIe Gen 5 i 400 Gb/s na połączenie przy użyciu sieci Ethernet lub InfiniBand, podwajając przepustowość sieci między serwerami i pamięcią masową. Adaptery obsługują zaawansowane odciążanie sieci, pamięci masowej i zabezpieczeń. ConnectX-7 zmniejsza liczbę potrzebnych kabli i portów przełączników, oszczędzając 17% lub więcej energii elektrycznej potrzebnej do łączenia dużych klastrów HPC i AI z akceleracją GPU oraz przyczyniając się do lepszej efektywności energetycznej tych nowych serwerów.

Oprogramowanie NVIDIA AI Enterprise zapewnia kompletne rozwiązanie AI
Te systemy nowej generacji zapewniają również skok naprzód w wydajności operacyjnej, ponieważ są zoptymalizowane pod kątem pakietu oprogramowania NVIDIA AI Enterprise.

Działając na platformie NVIDIA H100, NVIDIA AI Enterprise przyspiesza proces analizy danych oraz usprawnia opracowywanie i wdrażanie predykcyjnych modeli sztucznej inteligencji w celu automatyzacji podstawowych procesów i szybkiego uzyskiwania wglądu w dane.

Dzięki obszernej bibliotece pełnego oprogramowania, w tym przepływom pracy AI w aplikacjach referencyjnych, frameworkach, wstępnie wytrenowanych modelach i optymalizacji infrastruktury, oprogramowanie to stanowi idealną podstawę do skalowania sukcesu AI w przedsiębiorstwie.

Aby wypróbować NVIDIA H100 z przepływami pracy i platformami AI obsługiwanymi przez NVIDIA AI Enterprise, zarejestruj się bezpłatnie w NVIDIA LaunchPad.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Książka kucharska Stardew Valley poświęcona jest postaciom z gry

Minął ponad miesiąc, odkąd deweloper Eric „ConcernedApe” Barone wypuścił wielką wersję Aktualizacja 1.6 Do Dolina Gwiezdnej Rosy, ale zabawa się jeszcze...

Gadżety AI nie są jeszcze w stanie pokonać smartfonów

Humanitarny. Królik. Meta. Wszystkie te firmy i nie tylko ciężko pracują, aby wynaleźć nową kategorię technologii, która nie będzie działać...

Sonda: Czy Apple powinien oferować więcej kolorowych modeli iPhone’a 16 Pro?

W raporcie z początku tego miesiąca podano, że tylne szkło z nasyconym kolorem było stosowane w modelach innych niż Pro iPhone'a 15 modele...
Advertisment