Platforma NVIDIA Blackwell nadchodzi, aby zasilić nową erę informatyki


Wprowadzając nową erę informatyki, firma NVIDIA ogłosiła dziś nadejście platformy NVIDIA Blackwell — umożliwiającej organizacjom na całym świecie tworzenie i uruchamianie generatywnej sztucznej inteligencji w czasie rzeczywistym na dużych modelach językowych o bilionach parametrów przy nawet 25 razy niższym koszcie i zużyciu energii w porównaniu z jej poprzedniczką.

Architektura procesora graficznego Blackwell obejmuje sześć rewolucyjnych technologii przyspieszonego przetwarzania danych, które pomogą odblokować przełomowe rozwiązania w przetwarzaniu danych, symulacjach inżynieryjnych, automatyzacji projektowania elektronicznego, projektowaniu leków wspomaganych komputerowo, obliczeniach kwantowych i generatywnej sztucznej inteligencji – wszystkie nowe możliwości branżowe dla firmy NVIDIA.

„Od trzech dekad pracujemy nad przyspieszonym przetwarzaniem danych, a naszym celem jest umożliwienie przełomowych przełomów, takich jak głębokie uczenie się i sztuczna inteligencja” – powiedział Jensen Huang, założyciel i dyrektor generalny firmy NVIDIA. „Generatywna sztuczna inteligencja to technologia definiująca nasze czasy. Blackwell to silnik napędzający tę nową rewolucję przemysłową. Współpracując z najbardziej dynamicznymi firmami na świecie, zrealizujemy obietnice sztucznej inteligencji dla każdej branży”.

Wśród wielu organizacji, które mają wdrożyć Blackwell, są Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla i xAI.

Sundar Pichai, dyrektor generalny Alphabet i Google: „Skalowanie usług takich jak wyszukiwarka i Gmail do miliardów użytkowników nauczyło nas wiele na temat zarządzania infrastrukturą obliczeniową. Wkraczając w platformę zmiany platformy AI, nadal intensywnie inwestujemy w infrastrukturę dla naszych własnych produktów i usług oraz dla naszych klientów korzystających z chmury. Mamy szczęście, że współpracujemy z firmą NVIDIA od dawna i nie możemy się doczekać udostępnienia przełomowych możliwości procesora graficznego Blackwell naszym klientom i zespołom zajmującym się chmurą w Google, w tym Google DeepMind, aby przyspieszyć przyszłe odkrycia.

Andy Jassy, ​​prezes i dyrektor generalny Amazon: „Nasza głęboka współpraca z firmą NVIDIA sięga ponad 13 lat wstecz, kiedy uruchomiliśmy pierwszą na świecie instancję chmury GPU w AWS. Dziś oferujemy najszerszą gamę rozwiązań GPU dostępnych w dowolnym miejscu w chmurze, obsługującą najbardziej zaawansowane technologicznie, przyspieszone obciążenia robocze na świecie. Właśnie dlatego nowy procesor graficzny NVIDIA Blackwell będzie działał tak dobrze w środowisku AWS i powód, dla którego NVIDIA wybrała AWS do współtworzenia Projektu Ceiba, łącząc nowej generacji Grace Blackwell Superchips firmy NVIDIA z zaawansowaną wirtualizacją systemu AWS Nitro oraz ultraszybkie łączenie adapterów Elastic Fabric na potrzeby własnych badań i rozwoju sztucznej inteligencji firmy NVIDIA.Dzięki wspólnemu wysiłkowi inżynierów AWS i firmy NVIDIA kontynuujemy wspólne wprowadzanie innowacji, aby uczynić AWS najlepszym miejscem dla każdego, kto może uruchamiać procesory graficzne NVIDIA w chmurze. “

Michael Dell, założyciel i dyrektor generalny Dell Technologies: „Generatywna sztuczna inteligencja ma kluczowe znaczenie w tworzeniu inteligentniejszych, bardziej niezawodnych i wydajnych systemów. Dell Technologies i NVIDIA współpracują, aby kształtować przyszłość technologii. Wraz z wprowadzeniem na rynek Blackwell będziemy nadal dostarczać następną generację przyspieszonych produktów i usług dla naszych klientów, zapewniając im narzędzia potrzebne do napędzania innowacji w różnych branżach.”

Reklama

Demis Hassabis, współzałożyciel i dyrektor generalny Google DeepMind: „Przekształcający potencjał sztucznej inteligencji jest niesamowity i pomoże nam rozwiązać niektóre z najważniejszych problemów naukowych na świecie. Przełomowe możliwości technologiczne firmy Blackwell zapewnią krytyczne obliczenia potrzebne najzdolniejszym umysłom świata wyznacza nowe odkrycia naukowe.”

Mark Zuckerberg, założyciel i dyrektor generalny Meta: „Sztuczna inteligencja już napędza wszystko, od naszych dużych modeli językowych po rekomendacje treści, reklamy i systemy bezpieczeństwa, a w przyszłości będzie to jeszcze ważniejsze. Nie możemy się doczekać wykorzystania technologii NVIDIA Blackwell, aby pomóc w szkoleniu naszych modeli Lamy typu open source i tworzeniu nowej generacji Meta AI i produktów konsumenckich.

Satya Nadella, prezes wykonawczy i dyrektor generalny firmy Microsoft: „Chcemy oferować naszym klientom najbardziej zaawansowaną infrastrukturę do obsługi obciążeń AI. Wprowadzając procesor GB200 Grace Blackwell do naszych centrów danych na całym świecie, opieramy się na naszej wieloletniej historii optymalizujemy procesory graficzne NVIDIA pod kątem naszej chmury, dzięki czemu obietnica sztucznej inteligencji staje się rzeczywistością dla organizacji na całym świecie”.

Sam Altman, dyrektor generalny OpenAI: „Blackwell oferuje ogromny skok wydajności i przyspieszy naszą zdolność do dostarczania najnowocześniejszych modeli. Jesteśmy podekscytowani możliwością kontynuowania współpracy z firmą NVIDIA w celu ulepszenia obliczeń AI”.

Larry Ellison, prezes i dyrektor ds. technicznych firmy Oracle: „Bliska współpraca Oracle z firmą NVIDIA umożliwi przełomowe jakościowe i ilościowe zmiany w sztucznej inteligencji, uczeniu maszynowym i analizie danych. Aby klienci mogli odkrywać bardziej praktyczne spostrzeżenia, potrzebny jest jeszcze potężniejszy silnik, taki jak Blackwell, który został stworzony specjalnie z myślą o przyspieszonym przetwarzaniu i generatywnej sztucznej inteligencji.”

Elon Musk, dyrektor generalny Tesli i xAI: „Obecnie nie ma nic lepszego niż sprzęt NVIDIA dla sztucznej inteligencji”.

Nazwana na cześć Davida Harolda Blackwella — matematyka specjalizującego się w teorii gier i statystyce oraz pierwszego czarnoskórego uczonego wprowadzonego do Narodowej Akademii Nauk — nowa architektura jest następcą wprowadzonej na rynek dwa lata temu architektury NVIDIA Hopper.

Innowacje Blackwell wspierają przyspieszone przetwarzanie danych i generatywną sztuczną inteligencję
Sześć rewolucyjnych technologii firmy Blackwell, które łącznie umożliwiają szkolenie sztucznej inteligencji i wnioskowanie LLM w czasie rzeczywistym dla modeli skalowanych do 10 bilionów parametrów, obejmuje:

  • Najpotężniejszy chip na świecie — wyposażone w 208 miliardów tranzystorów procesory graficzne oparte na architekturze Blackwell są produkowane przy użyciu niestandardowego procesu 4NP TSMC z matrycami GPU z ograniczeniem dwóch siatek połączonych łączem chip-chip o przepustowości 10 TB/s w pojedynczy, zunifikowany procesor graficzny .
  • Silnik transformatorowy drugiej generacji — napędzany nową obsługą skalowania mikrotensorowego i zaawansowanymi algorytmami zarządzania zakresem dynamicznym firmy NVIDIA zintegrowanymi ze frameworkami NVIDIA TensorRT -LLM i NeMo Megatron, Blackwell będzie obsługiwał dwukrotnie większe obliczenia i rozmiary modeli dzięki nowemu 4-bitowemu wnioskowaniu zmiennoprzecinkowemu AI możliwości.
  • NVLink piątej generacji — aby zwiększyć wydajność wielobiliardowych parametrów i modeli AI złożonych z wielu ekspertów, najnowsza wersja NVIDIA NVLink zapewnia przełomową przepustowość dwukierunkową na poziomie 1,8 TB/s na procesor graficzny, zapewniając płynną, szybką komunikację pomiędzy maksymalnie 576 procesorami graficznymi dla najbardziej złożone LLM.
  • Silnik RAS — procesory graficzne Blackwell zawierają dedykowany silnik zapewniający niezawodność, dostępność i łatwość serwisowania. Ponadto architektura Blackwell dodaje na poziomie chipa możliwości wykorzystania konserwacji zapobiegawczej opartej na sztucznej inteligencji do przeprowadzania diagnostyki i prognozowania problemów z niezawodnością. Maksymalizuje to czas sprawności systemu i poprawia odporność wdrożeń sztucznej inteligencji na masową skalę, aby mogły działać nieprzerwanie przez tygodnie, a nawet miesiące i zmniejszać koszty operacyjne.
  • Bezpieczna sztuczna inteligencja — zaawansowane możliwości przetwarzania poufnego chronią modele sztucznej inteligencji i dane klientów bez pogarszania wydajności, dzięki obsłudze nowych natywnych protokołów szyfrowania interfejsu, które mają kluczowe znaczenie w branżach wrażliwych na prywatność, takich jak opieka zdrowotna i usługi finansowe.
  • Silnik dekompresji — dedykowany silnik dekompresji obsługuje najnowsze formaty, przyspieszając zapytania do bazy danych, aby zapewnić najwyższą wydajność w analizie i nauce danych. W nadchodzących latach przetwarzanie danych, na które firmy wydają dziesiątki miliardów dolarów rocznie, będzie coraz bardziej akcelerowane przez GPU.

Ogromny superchip

Układ NVIDIA GB200 Grace Blackwell Superchip łączy dwa procesory graficzne NVIDIA B200 Tensor Core z procesorem NVIDIA Grace za pośrednictwem połączenia międzyukładowego NVLink o ultraniskiej mocy 900 GB/s.

Aby uzyskać najwyższą wydajność sztucznej inteligencji, systemy wyposażone w GB200 można połączyć z zapowiedzianymi dzisiaj platformami Ethernet NVIDIA Quantum-X800 InfiniBand i Spectrum -X800, które zapewniają zaawansowaną łączność sieciową z szybkością do 800 Gb/s.

GB200 to kluczowy komponent NVIDIA GB200 NVL72, wielowęzłowego, chłodzonego cieczą systemu przeznaczonego do montażu w szafie serwerowej, przeznaczonego do najbardziej wymagających obciążeń obliczeniowych. Łączy w sobie 36 superchipów Grace Blackwell, w tym 72 procesory graficzne Blackwell i 36 procesorów Grace, połączonych ze sobą za pomocą NVLink piątej generacji. Dodatkowo GB200 NVL72 zawiera jednostki przetwarzania danych NVIDIA BlueField -3, które umożliwiają przyspieszenie sieci w chmurze, komponowalną pamięć masową, bezpieczeństwo zerowego zaufania i elastyczność obliczeń GPU w hiperskalowych chmurach AI. GB200 NVL72 zapewnia nawet 30-krotny wzrost wydajności w porównaniu z tą samą liczbą procesorów graficznych NVIDIA H100 Tensor Core dla obciążeń wnioskowania LLM oraz zmniejsza koszty i zużycie energii nawet 25-krotnie.

Platforma działa jak pojedynczy procesor graficzny z wydajnością AI na poziomie 1,4 eksaflopa i 30 TB szybkiej pamięci i stanowi element konstrukcyjny najnowszego DGX SuperPOD.

NVIDIA oferuje HGX B200, płytę serwerową, która łączy osiem procesorów graficznych B200 za pośrednictwem NVLink w celu obsługi platform generatywnej sztucznej inteligencji opartych na architekturze x86. HGX B200 obsługuje prędkości sieciowe do 400 Gb/s poprzez platformy sieciowe NVIDIA Quantum-2 InfiniBand i Spectrum-X Ethernet.

Globalna sieć partnerów Blackwell
Produkty oparte na technologii Blackwell będą dostępne u partnerów jeszcze w tym roku.

AWS, Google Cloud, Microsoft Azure i Oracle Cloud Infrastructure będą jednymi z pierwszych dostawców usług w chmurze, którzy zaoferują instancje oparte na platformie Blackwell, podobnie jak firmy z programów NVIDIA Cloud Partner: Applied Digital, CoreWeave, Crusoe, IBM Cloud i Lambda. Chmury Sovereign AI będą także zapewniać usługi i infrastrukturę w chmurze opartą na Blackwell, w tym Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK i Australian Government Clouds, Scaleway, Singtel, Taiga Cloud firmy Northern Data Group, Shakti Cloud firm Yotta Data Services i YTL Power International.

GB200 będzie również dostępny na platformie NVIDIA DGX Cloud, platformie AI opracowanej wspólnie z wiodącymi dostawcami usług w chmurze, która zapewnia programistom korporacyjnym dedykowany dostęp do infrastruktury i oprogramowania potrzebnego do tworzenia i wdrażania zaawansowanych generatywnych modeli AI. AWS, Google Cloud i Oracle Cloud Infrastructure planują udostępnić jeszcze w tym roku nowe instancje oparte na NVIDIA Grace Blackwell.

Oczekuje się, że Cisco, Dell, Hewlett Packard Enterprise, Lenovo i Supermicro dostarczą szeroką gamę serwerów opartych na produktach Blackwell, podobnie jak Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn i Systemy ZT.

Ponadto rosnąca sieć twórców oprogramowania, w tym Ansys, Cadence i Synopsys — światowi liderzy w dziedzinie symulacji inżynieryjnych — użyje procesorów opartych na platformie Blackwell w celu przyspieszenia tworzenia oprogramowania do projektowania i symulowania systemów i części elektrycznych, mechanicznych oraz produkcyjnych. Ich klienci mogą korzystać z generatywnej sztucznej inteligencji i przyspieszonego przetwarzania danych, aby szybciej wprowadzać produkty na rynek, po niższych kosztach i przy wyższej efektywności energetycznej.

Wsparcie oprogramowania NVIDIA
Portfolio produktów Blackwell jest obsługiwane przez NVIDIA AI Enterprise, kompleksowy system operacyjny dla sztucznej inteligencji klasy produkcyjnej. NVIDIA AI Enterprise obejmuje mikrousługi NVIDIA NIM wnioskowania – również ogłoszone dzisiaj – a także platformy AI, biblioteki i narzędzia, które przedsiębiorstwa mogą wdrażać w chmurach, centrach danych i stacjach roboczych z akceleracją NVIDIA.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Kraven Łowca wyjaśnia główną wadę Sony’s Spider-Man Universe

Po zobaczeniu Kraven The Hunter W kinach w grudniu 2024 r. Nie mogłem przestać myśleć o jednym szczegółach filmu. KravenW tym tygodniu...

Nowe manekiny ujawniają cienkość powietrza iPhone 17, znacznie grubsze modele pro, więcej

Dzięki Apple Leaker Sonny Dicksonteraz po raz pierwszy przyjrzymy się manekinu dla składu iPhone'a 17. Te manekiny podkreślają wiele rzeczy: nowe projekty z...

W tym tygodniu w grach (tydzień 12)

Czas leci, a gdy wchodzimy do drugiej połowy marca, mamy wydanie AAA z popularnej franczyzy, która obejmuje morderstwo inną nazwą. Następnie następuje dość...
Advertisment