„AMD Instinct MI300X i otwarte oprogramowanie ROCm nadal zyskują na popularności jako zaufane rozwiązania do obsługi najbardziej krytycznych obciążeń OCI AI” — powiedział Andrew Dieckmann, wiceprezes korporacyjny i dyrektor generalny Data Center GPU Business w AMD. „W miarę jak te rozwiązania będą się dalej rozwijać na rosnących rynkach intensywnie korzystających z AI, połączenie to przyniesie korzyści klientom OCI dzięki wysokiej wydajności, efektywności i większej elastyczności projektowania systemów”.
„Możliwości wnioskowania akceleratorów AMD Instinct MI300X uzupełniają szeroki wybór wysokowydajnych instancji bare metal firmy OCI, aby usunąć narzut związany z wirtualizacją obliczeniową powszechnie stosowaną w infrastrukturze AI” — powiedział Donald Lu, starszy wiceprezes ds. rozwoju oprogramowania w Oracle Cloud Infrastructure. „Cieszymy się, że możemy zaoferować większy wybór klientom, którzy chcą przyspieszyć obciążenia AI w konkurencyjnej cenie”.
Zapewniamy zaufaną wydajność i otwarty wybór w zakresie szkolenia i wnioskowania AI
AMD Instinct MI300X przeszedł obszerne testy, które zostały zweryfikowane przez OCI, podkreślając jego możliwości wnioskowania i szkolenia AI w celu obsługi przypadków użycia optymalnych pod względem opóźnienia, nawet przy większych rozmiarach partii, oraz zdolność do dopasowania największych modeli LLM do jednego węzła. Te wyniki wydajności Instinct MI300X przyciągnęły uwagę deweloperów modeli AI.
Fireworks AI oferuje szybką platformę przeznaczoną do budowania i wdrażania generatywnej AI. Dzięki ponad 100 modelom Fireworks AI wykorzystuje zalety wydajności znalezione w OCI przy użyciu AMD Instinct MI300X.
„Fireworks AI pomaga przedsiębiorstwom budować i wdrażać złożone systemy AI w szerokim zakresie branż i przypadków użycia” — powiedział Lin Qiao, CEO Fireworks AI. „Ilość dostępnej pamięci w oprogramowaniu otwartym AMD Instinct MI300X i ROCm pozwala nam skalować usługi dla naszych klientów w miarę rozwoju modeli”.