Rozmiar matrycy chipów platformy Blackwell, takich jak B100, jest dwukrotnie większy niż w przypadku H100. W miarę jak Blackwell stanie się głównym nurtem w 2025 r., przewiduje się, że całkowita pojemność CoWoS firmy TSMC wzrośnie o 150% w 2024 r. i o ponad 70% w 2025 r., przy czym zapotrzebowanie firmy NVIDIA zajmie prawie połowę tej pojemności. W przypadku HBM ewolucja platformy GPU NVIDIA zakłada, że H100 będzie wykorzystywał głównie 80 GB pamięci HBM3, podczas gdy model B200 z roku 2025 będzie wyposażony w 288 GB HBM3e, co oznacza 3-4-krotny wzrost pojemności na chip. Plany ekspansji trzech głównych producentów wskazują, że wielkość produkcji HBM prawdopodobnie podwoi się do 2025 roku.
Microsoft, Meta i AWS jako pierwsze przyjmą GB200
Dostawcy CSP, tacy jak Microsoft, Meta i AWS, przodują we wdrażaniu GB200, a oczekuje się, że do 2025 r. ich łączny wolumen dostaw przekroczy 30 000 stojaków. Dla kontrastu Google prawdopodobnie priorytetowo potraktuje rozbudowę swojej infrastruktury TPU AI. Platforma Blackwell była bardzo oczekiwana na rynku, ponieważ różni się od tradycyjnego podejścia do pojedynczego serwera AI HGX lub MGX. Zamiast tego promuje konfigurację obejmującą całą szafę serwerową, integrując własne technologie procesorowe, graficzne, NVLink i szybkie sieci InfiniBand firmy NVIDIA. GB200 jest podzielony na dwie konfiguracje: NVL36 i NVL72, przy czym każda szafa wyposażona jest odpowiednio w 36 i 72 procesory graficzne. Chociaż NVL72 jest podstawową konfiguracją promowaną przez firmę NVIDIA, złożoność jej projektu sugeruje, że NVL36 zostanie wprowadzony jako pierwszy pod koniec 2024 r. w celu przeprowadzenia wstępnych testów, aby zapewnić szybkie wejście na rynek.
Zapotrzebowanie na serwery AI ze strony centrów danych poziomu 2 i rządu ma wzrosnąć do 50% w 2024 r
Dane firmy NVIDIA za pierwszy kwartał 25 roku wskazują na zauważalny wzrost popytu ze strony klientów korporacyjnych, suwerennych chmur AI i centrów danych warstwy 2. TrendForce zauważa, że w 2023 r. NVIDIA nadała priorytet swoim wysokiej klasy procesorom graficznym dla dostawców hiper-CSP ze względu na ograniczoną podaż CoWoS i HBM. W 2023 r. dostawcy CSP odpowiadali za około 65% światowego zapotrzebowania na wysokiej klasy serwery AI.
Wraz ze zmniejszeniem podaży procesorów graficznych w pierwszej połowie 24 r. popyt ze strony takich marek serwerów, jak Dell i HPE wzrośnie do 19%. Inne źródła, w tym centra danych poziomu 2, takie jak CoreWeave i Tesla, a także suwerenne chmury AI i projekty superkomputerowe, odnotują, że ich łączny udział w popycie wzrośnie do 31%. Wzrost ten wynika z wrażliwego i skoncentrowanego na prywatności charakteru szkoleń i aplikacji AI. Oczekuje się, że segment ten odegra kluczową rolę w napędzaniu wzrostu dostaw serwerów AI w przyszłości.