Tachyum Prodigy Native AI obsługuje TensorFlow i PyTorch


Firma Tachyum Inc. ogłosiła dzisiaj, że rozszerzyła możliwości swojego procesora Prodigy Universal poprzez obsługę środowisk TensorFlow i PyTorch, umożliwiając szybsze, tańsze i bardziej dynamiczne rozwiązanie dla najbardziej wymagających obciążeń związanych ze sztuczną inteligencją / uczeniem maszynowym.

Analitycy przewidują, że przychody ze sztucznej inteligencji przekroczą 300 miliardów dolarów do 2024 r., A składana roczna stopa wzrostu (CAGR) sięgnie 42% do 2027 r. Giganci technologiczni, którzy chcą uczynić tę technologię bardziej dostępną dla zastosowań korporacyjnych, mocno inwestują w sztuczną inteligencję. Obejmują one pojazdy autonomiczne, a także bardziej wyrafinowane i wymagające kontroli dyscypliny, takie jak kolczaste sieci neuronowe, wyjaśniona sztuczna inteligencja, symboliczna sztuczna inteligencja i biologiczna sztuczna inteligencja. Po wdrożeniu w środowiskach sztucznej inteligencji Prodigy jest w stanie uprościć procesy oprogramowania, przyspieszyć wydajność, oszczędzać energię i lepiej włączać bogate zestawy danych, aby umożliwić szybsze innowacje.

Zastrzeżone środowiska programistyczne, takie jak CUDA, są z natury trudne do nauczenia się i używania. Dzięki rozwiązaniom typu open source, takim jak TensorFlow i PyTorch, jest sto razy więcej programistów, którzy mogą wykorzystać te frameworki do kodowania aplikacji ML na dużą skalę w Prodigy. Dzięki obsłudze środowisk uczenia głębokiego, które są łatwiejsze do nauczenia, budowania i trenowania zróżnicowanych sieci neuronowych, Tachyum jest w stanie przezwyciężyć i wyjść poza ograniczenia stojące przed osobami pracującymi wyłącznie z CUDA firmy NVIDIA lub z OpenCL.

W podobny sposób, w jaki zewnętrzne koprocesory zmiennoprzecinkowe i chipy koprocesorów wektorowych zostały zinternalizowane w CPU, Tachyum tworzy zewnętrzne koprocesory macierzowe dla AI jako integralną część procesora. Dzięki zintegrowanym operacjom macierzowym w ramach Prodigy, Tachyum jest w stanie zapewnić bardzo precyzyjną akcelerację sieci neuronowej do 10 razy szybciej niż inne rozwiązania. Wsparcie Tachyum dla 16-bitowych typów danych zmiennoprzecinkowych i niższej precyzji poprawia wydajność i oszczędza energię w zastosowaniach, takich jak przetwarzanie wideo. Szybszy niż NVIDIA A100, Prodigy wykorzystuje skompresowane typy danych, aby umożliwić większe modele zmieścić się w pamięci. Zamiast 20 GB współdzielonej koherentnej pamięci Tachyum pozwala na 8 TB na układ i 64 TB na węzeł.

Serwery uniwersalne z zasilaniem bezczynnym Prodigy w hiperskalowych centrach danych, poza godzinami szczytu, dostarczą 10 razy więcej zasobów szkoleniowych / wnioskowania AI Neural Network niż obecnie dostępne, bez nakładów CAPEX (tj. Przy niskich kosztach, ponieważ uniwersalne serwery obliczeniowe z napędem Prodigy są już dostępne) kupione i opłacone). Tachyum’s Prodigy umożliwia przetwarzanie brzegowe i produkty IOT, które będą miały wbudowane wysokowydajne wnioskowanie AI zoptymalizowane pod kątem wykorzystania szkolenia AI opartego na Prodigy z chmury lub biura domowego.

Reklama

„Publikacje biznesowe i branżowe przewidują, jak ważna będzie sztuczna inteligencja na rynku, z szacunkami na temat ponad 50% wzrostu PKB” – powiedział dr Radoslav Danilak, założyciel i dyrektor generalny Tachyum. „Oznacza to, że mniej niż 1 procent danych przetwarzanych obecnie przez sztuczną inteligencję wzrośnie aż do 40 procent, a 3 procent mocy planet wykorzystywanych przez centra danych wzrośnie do 10 procent w 2025 roku. Istnieje pilna potrzeba rozwiązanie, które oferuje niskie zużycie energii, szybkie przetwarzanie oraz łatwość użytkowania i implementacji. Poprzez włączenie ram open source, takich jak TensorFlow i PyTorch, jesteśmy w stanie przyspieszyć AI i ML na całym świecie, a obliczenia na skalę ludzką pojawią się w ciągu 2 do 3 lat ”.

Tachyum’s Prodigy może uruchamiać aplikacje HPC, splotową sztuczną inteligencję, możliwą do wyjaśnienia sztuczną inteligencję, ogólną sztuczną inteligencję, bio AI i spikowane sieci neuronowe, a także normalne obciążenia centrum danych na jednej jednorodnej platformie procesora z prostym modelem programowania. Używanie CPU, GPU, TPU i innych akceleratorów zamiast Prodigy do tych różnych typów obciążeń jest nieefektywne. Heterogeniczna struktura przetwarzania z unikalnym sprzętem dedykowanym do każdego rodzaju obciążenia (np. Centrum danych, sztuczna inteligencja, HPC) powoduje niepełne wykorzystanie zasobów sprzętowych i trudniejsze środowisko programistyczne. Zdolność Prodigy do bezproblemowego przełączania się między tymi różnymi obciążeniami radykalnie zmienia krajobraz konkurencyjny i ekonomikę centrów danych.

Prodigy znacząco poprawia wydajność obliczeniową, zużycie energii, wykorzystanie sprzętu (serwera) i wymagania dotyczące miejsca w porównaniu z istniejącymi chipami dostarczanymi obecnie w hiperskalowych centrach danych. Pozwoli to również programistom Edge dla IoT wykorzystać jego niski pobór mocy i wysoką wydajność, a także prosty model programowania w celu dostarczania sztucznej inteligencji do krawędzi.

Prodigy to naprawdę uniwersalny procesor. Oprócz natywnego kodu Prodigy obsługuje również starsze pliki binarne x86, ARM i RISC-V. A dzięki pojedynczej, bardzo wydajnej architekturze procesora Prodigy zapewnia wiodącą w branży wydajność w zakresie obciążeń centrów danych, AI i HPC. Prodigy, flagowy uniwersalny procesor firmy, wejdzie do produkcji seryjnej w 2021 roku. W kwietniu chip Prodigy z powodzeniem udowodnił swoją żywotność, a pełny układ chipów przekracza docelowe prędkości. W sierpniu procesor jest w stanie poprawnie wykonywać krótkie programy, których wyniki są automatycznie weryfikowane z modelem oprogramowania, przekraczając docelowe prędkości taktowania. Następnym krokiem jest uzyskanie wyprodukowanego w pełni funkcjonalnego prototypu układu FPGA jeszcze w tym roku, co jest ostatnim kamieniem milowym przed taśmą.

Prodigy przewyższa najszybsze procesory Xeon przy 10-krotnie niższej mocy w przypadku obciążeń centrum danych, a także przewyższa najszybsze GPU firmy NVIDIA w zakresie HPC, treningu sztucznej inteligencji i wnioskowania. Zaledwie 125 stojaków HPC Prodigy może dostarczyć 32 tensorowe EXAFLOPS. 3-krotnie niższy koszt MIPS i 10-krotnie niższa moc rdzenia Prodigy przekłada się na 4-krotnie niższy całkowity koszt posiadania (TCO) centrum danych, umożliwia miliardy dolarów oszczędności dla hiperskalerów, takich jak Google, Facebook, Amazon, Alibaba i inne. Ponieważ Prodigy jest jedynym na świecie procesorem, który może przełączać się między centrami danych, sztuczną inteligencją i obciążeniami HPC, nieużywane serwery mogą być używane jako AI wolna od CAPEX lub chmura HPC, ponieważ serwery zostały już zamortyzowane.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Czy Litten może być błyszczący w Pokémon Go?

21 marca 2023 roku Litten będzie w centrum uwagi Pokemon Go, a otrzymasz podwójny Stardust za złapanie Pokémona. I nie,...

NCSC uruchamia narzędzia do kontroli cybernetycznej dla MŚP

Wielkiej Brytanii Narodowe Centrum Cyberbezpieczeństwa (NCSC) uruchamia dziś dwie nowe usługi dla 5,5 miliona małych firm w kraju, z których jedna trzecia była...

Szefowa Marvel Studios VFX, Victoria Alonso, odpadła

Za Reporter z Hollywood, po 17 latach pracy w Marvel Studios – początkowo jako wiceprezes wykonawczy ds. efektów wizualnych i postprodukcji, zanim został...
Advertisment

Chcesz być na bieżąco z najnowszymi wiadomościami?

Bardzo chcielibyśmy usłyszeć od Ciebie! Podaj swoje dane, a pozostaniemy w kontakcie. To takie proste!