OCI, jeden z największych i najszybciej rozwijających się dostawców usług w chmurze, jest jednym z pierwszych, którzy wdrożyli systemy NVIDIA GB200 NVL72. Firma ma ambitne plany budowy jednego z największych klastrów Blackwell na świecie. OCI Superclustery będzie skalować ponad 100 000 GPU Nvidia Blackwell, aby zaspokoić gwałtowną potrzebę na świecie tokenów wnioskowania i przyspieszonego przetwarzania. Torid Tempo innowacji AI trwa, ponieważ kilka firm, w tym OpenAI, wydało nowe modele rozumowania w ciągu ostatnich kilku tygodni.
Instalacja OCI jest najnowszym przykładem Nvidia Grace Blackwell Systems zmierzającego online na całym świecie, przekształcając centra danych w chmurze w fabryki AI, które wytwarzają inteligencję na dużą skalę. Te nowe fabryki AI wykorzystują platformę NVIDIA GB200 NVL72, system w skali szaf, który łączy 36 procesorów NVIDIA Grace i 72 Nvidia Blackwell GPU, zapewniając wyjątkową wydajność i efektywność energetyczną dla Agentic AI zasilanych za pomocą zaawansowanych modeli rozumowania AI.
OCI oferuje elastyczne opcje wdrażania w celu przyniesienia Blackwell klientom w chmurach publicznych, rządowych i suwerennych, a także centrach danych należących do klientów Region dedykowany OCI i stop OCI w dowolnej skali.
Wielu klientów planuje od razu wdrożyć obciążenie pracą w systemach OCI GB200, w tym dużych firmach technologicznych, klientach korporacyjnych, agencjach rządowych i wykonawcach oraz regionalnych dostawców chmur.
Te nowe stojaki to pierwsze dostępne systemy z Nvidia DGX Cloudzoptymalizowana platforma z oprogramowaniem, usługami i wsparciem technicznym w celu opracowania i wdrażania obciążeń AI na wiodących chmurach, takich jak OCI. NVIDIA będzie wykorzystywać stojaki do różnych projektów, w tym modele szkoleniowe rozumowania, autonomiczny rozwój pojazdów, przyspieszanie projektowania i produkcji chipów oraz opracowywanie narzędzi AI.
Stojaki GB200 NVL72 są na żywo i dostępne teraz w DGX Cloud i OCI.