Microsoft ujawnia nowe szczegóły dotyczące Maia 100, swojego pierwszego niestandardowego układu AI



Firma Microsoft przedstawiła szczegółowy widok Maia 100 na Hot Chips 2024, ich pierwszy wyspecjalizowany układ AI. Ten nowy system został zaprojektowany tak, aby działał bezproblemowo od początku do końca, mając na celu poprawę wydajności i redukcję kosztów. Obejmuje specjalnie wykonane płyty serwerowe, unikalne szafy i system oprogramowania skupiony na zwiększeniu efektywności i mocy zaawansowanych usług AI, takich jak Azure OpenAI. Firma Microsoft zaprezentowała Maia na Ignite 2023, informując, że stworzyła własny układ akceleratora AI. Więcej informacji podano wcześniej w tym roku na wydarzeniu dla deweloperów Build. Maia 100 to jeden z największych procesorów wykonanych w technologii 5 nm firmy TSMC, zaprojektowany do obsługi rozległych zadań AI na platformie Azure.

Cechy architektury Maia 100 SoC:

  • Szybka jednostka tensorowa (16xRx16) umożliwia szybkie przetwarzanie na potrzeby treningu i wnioskowania, a jednocześnie obsługuje szeroką gamę typów danych, w tym typy danych o niskiej precyzji, takie jak format danych MX, wprowadzony po raz pierwszy przez firmę Microsoft za pośrednictwem MX Consortium w 2023 r.
  • Procesor wektorowy to luźno powiązany silnik superskalarny zbudowany w oparciu o niestandardową architekturę zestawu instrukcji (ISA) w celu obsługi szerokiego zakresu typów danych, w tym FP32 i BF16.
  • Silnik bezpośredniego dostępu do pamięci (DMA) obsługuje różne schematy partycjonowania tensora.
  • Semafory sprzętowe umożliwiają asynchroniczne programowanie w systemie Maia.

Maia 100 wykorzystuje połączenie sieciowe oparte na Ethernet ze specjalnym protokołem podobnym do RoCE, który umożliwia bardzo szybkie przetwarzanie danych. Może obsłużyć do 4800 Gbps dla niektórych operacji danych i 1200 Gbps dla komunikacji all-to-all.

Specyfikacja Maia 100:

  • Rozmiar chipa: 820 mm²
  • Projekt do TDP: 700 W
  • Zapewnij TDP: 500 W
  • Opakowanie: proces TSMC N5 z technologią interposera COWOS-S
  • HBM BW/Cap: 1,8 TB/s przy 64 GB HBM2E
  • Gęsty tensor szczytowy POPS: 6 bitów: 3, 9 bitów: 1,5, BF16: 0,8
  • Poziom 1/poziom 2: 500 MB
  • Sieć zaplecza BW: 600 GB/s (12X400gbe)
  • Host BW (PCIe): 32 GB/s PCIe Gen5X8

Maia Software Development Kit (SDK) pomaga programistom dostosować modele PyTorch i Triton do użytku z Maia. SDK zawiera różne narzędzia ułatwiające korzystanie z tych modeli za pomocą usług Azure OpenAI Services. Programiści mogą pisać kod dla systemu Maia, używając Triton, języka DSL (domenowego języka źródłowego) dla głębokich sieci neuronowych, lub Maia API, niestandardowego modelu, który oferuje wysoką wydajność i szczegółową kontrolę. Maia bezpośrednio obsługuje PyTorch, więc programiści mogą uruchamiać modele PyTorch, wprowadzając jedynie drobne zmiany w kodzie. Będzie ciekawie zobaczyć, czy Microsoft zdecyduje się udostępnić dostęp do akceleratorów Maia 100 innym organizacjom, podobnie jak Google i Amazon zrobiły to ze swoimi układami AI.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Sofia Falcone z Penguin ma przeszłość w komiksach o Batmanie jako Kat

Maksymalnie'S Pingwin nie jest pierwszym serialem telewizyjnym, który powstał na podstawie fascynacji Hollywood podejrzaną dzielnicą Gotham City, ale może być tym, który...

Netflix dodaje Civilization 6 i Street Fighter 4 do swojej oferty gier

Najnowsze gry Netflixa są w rzeczywistości trochę stare. Podczas prezentacji Geeked Week 2024 usługa przesyłania strumieniowego ujawniła, że ​​dodaje Cywilizacja VI I Street...

Finałowy sezon Arcane będzie dostępny do streamowania 9 listopada

Dziś wieczorem, podczas ostatniej nocy tegorocznego Geeked Week, Netflix i Riot ogłoszone To Arkan ostatni sezon będzie wydarzeniem składającym się z trzech części....
Advertisment