Ampere skaluje rodzinę produktów AmpereOne do 256 rdzeni


Ampere Computing opublikowało dziś coroczną aktualizację na temat nadchodzących produktów i kamieni milowych, podkreślając ciągłe innowacje i wynalazki firmy w zakresie zrównoważonego, energooszczędnego przetwarzania danych w chmurze i sztucznej inteligencji. Firma ogłosiła również, że współpracuje z Qualcomm Technologies, Inc. w celu opracowania wspólnego rozwiązania do wnioskowania AI z wykorzystaniem wysokowydajnych rozwiązań wnioskowania Qualcomm Cloud AI 100 o niskim poborze mocy i procesorów Ampere.

Weteran branży półprzewodników i dyrektor generalna Ampere, Renee James, powiedziała, że ​​rosnące wymagania dotyczące zasilania i wyzwania energetyczne związane ze sztuczną inteligencją sprawiają, że podejście Ampere do projektowania krzemów skupia się na wydajności i efektywności bardziej niż kiedykolwiek. „Zaczęliśmy podążać tą ścieżką sześć lat temu, ponieważ było jasne, że jest to właściwa droga” – powiedział James. „Niski pobór mocy był kiedyś synonimem niskiej wydajności. Firma Ampere udowodniła, że ​​to nieprawda. Jesteśmy pionierami w dziedzinie wydajności obliczeniowej i zapewniliśmy wydajność przewyższającą starsze procesory w wydajnej obudowie obliczeniowej”.

James w dalszym ciągu podkreślał narastający problem szybkiego rozwoju sztucznej inteligencji: energia. „Obecna ścieżka jest niezrównoważona. Uważamy, że przyszła infrastruktura centrów danych musi uwzględniać sposób, w jaki zmodernizujemy istniejące środowiska chłodzone powietrzem za pomocą ulepszonej mocy obliczeniowej, a także zbudujemy nowe, przyjazne dla środowiska nowe centra danych, które będą odpowiadać dostępnej mocy w sieci. To znaczy co umożliwiamy w Ampere.”

Dyrektor ds. produktu Jeff Wittich podzielił się wizją Ampere dotyczącą tego, co firma nazywa „AI Compute”, które obejmuje tradycyjne funkcje natywne w chmurze aż po sztuczną inteligencję. „Nasze procesory Ampere mogą obsługiwać różnorodne obciążenia – od najpopularniejszych aplikacji natywnych w chmurze po sztuczną inteligencję. Obejmuje to sztuczną inteligencję zintegrowaną z tradycyjnymi aplikacjami natywnymi w chmurze, takimi jak przetwarzanie danych, udostępnianie stron internetowych, dostarczanie multimediów i nie tylko”.

James i Wittich przedstawili także nadchodzącą nową platformę AmpereOne firmy, ogłaszając, że 12-kanałowy 256-rdzeniowy procesor jest gotowy do pracy w węźle procesowym N3.

Oprócz aktualizacji dotyczących kierunku i wizji firmy, tegoroczna aktualizacja zawierała kilka najważniejszych wiadomości:

  • Ampere współpracuje z Qualcomm Technologies nad skalowaniem wspólnego rozwiązania obejmującego procesory Ampere i Qualcomm Cloud AI 100 Ultra. To rozwiązanie rozwiąże problem wnioskowania LLM na temat największych w branży generatywnych modeli sztucznej inteligencji.
  • Rozszerzenie 12-kanałowej platformy Ampere o nadchodzący 256-rdzeniowy procesor AmpereOne. Będzie on wykorzystywał te same chłodzone powietrzem rozwiązania termiczne, co istniejący 192-rdzeniowy procesor AmpereOne i zapewni o ponad 40% większą wydajność niż jakikolwiek inny procesor dostępny obecnie na rynku, bez egzotycznych konstrukcji platform. Oczekuje się, że 192-rdzeniowa, 12-kanałowa platforma pamięci firmy pojawi się jeszcze w tym roku.
  • Aktualizacja, którą Meta’s Llama 3 działa teraz na procesorach Ampere w Oracle Cloud. Dane dotyczące wydajności pokazują, że uruchomienie Llama 3 na 128-rdzeniowym procesorze Ampere Altra bez procesora graficznego zapewnia taką samą wydajność, jak procesor graficzny Nvidia A10 w połączeniu z procesorem x86, a wszystko to przy zużyciu jednej trzeciej mocy.
  • Ogłoszono utworzenie grupy roboczej UCIe w ramach AI Platform Alliance. W ramach tego firma stwierdziła, że ​​będzie opierać się na elastyczności swoich procesorów, wykorzystując technologię otwartego interfejsu, aby umożliwić włączenie adresów IP innych klientów do przyszłych procesorów.
  • Dodano nowe szczegóły na temat wydajności AmpereOne oraz platform OEM i ODM. AmpereOne w dalszym ciągu utrzymuje pozycję lidera w zakresie wydajności Ampere na wat, wyprzedzając AMD Genoa o 50% i Bergamo o 15%. W przypadku centrów danych, które chcą odświeżyć i skonsolidować starą infrastrukturę, aby odzyskać przestrzeń, budżet i moc, AmpereOne zapewnia do 34% większą wydajność na szafę.
  • Ujawniono, że nowe platformy AmpereOne OEM i ODM zostaną dostarczone w ciągu kilku miesięcy.
  • Ogłoszono wspólne rozwiązanie z firmą NETINT wykorzystujące firmowe chipy do przetwarzania wideo Quadra T1U i procesory Ampere do jednoczesnego transkodowania 360 kanałów na żywo wraz z napisami w czasie rzeczywistym dla 40 strumieni w wielu językach przy użyciu modelu Whisper OpenAI.
  • Oprócz istniejących funkcji, takich jak tagowanie pamięci, egzekwowanie QOS i zarządzanie przeciążeniami siatki, firma ujawniła nową funkcję FlexSKU, która umożliwia klientom korzystanie z tej samej jednostki SKU zarówno w przypadku zastosowań skalowalnych w poziomie, jak i w górę.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Dlaczego zarząd OpenAI zwolnił Sama Altmana

Jesteśmy rozczarowani, że pani Toner w dalszym ciągu powraca do tych kwestii. Niezależna komisja zarządu współpracowała z kancelarią prawniczą Wilmer Hale, aby...

Dzięki uprzejmości FCC wyciekły szczegóły dotyczące nowych Galaxy Z Flip 6 i Galaxy Ring

Według zapisów testów FCC wygląda na to, że niezapowiedziany jeszcze Galaxy Z Flip 6 otrzyma nieznacznie większą pojemność baterii w porównaniu do Z...

Vivek Ramaswamy nie potrafi nawet dobrze wsadzić Buzzfeeda

Dobra, Vivek Ramaswamy, chciałeś mojej uwagi i teraz ją masz. Do tej pory znałem Cię przede wszystkim jako gościa, który tak histerycznie...
Advertisment