Analitycy przewidują, że przychody ze sztucznej inteligencji przekroczą 300 miliardów dolarów do 2024 r., A składana roczna stopa wzrostu (CAGR) sięgnie 42% do 2027 r. Giganci technologiczni, którzy chcą uczynić tę technologię bardziej dostępną dla zastosowań korporacyjnych, mocno inwestują w sztuczną inteligencję. Obejmują one pojazdy autonomiczne, a także bardziej wyrafinowane i wymagające kontroli dyscypliny, takie jak kolczaste sieci neuronowe, wyjaśniona sztuczna inteligencja, symboliczna sztuczna inteligencja i biologiczna sztuczna inteligencja. Po wdrożeniu w środowiskach sztucznej inteligencji Prodigy jest w stanie uprościć procesy oprogramowania, przyspieszyć wydajność, oszczędzać energię i lepiej włączać bogate zestawy danych, aby umożliwić szybsze innowacje.
Zastrzeżone środowiska programistyczne, takie jak CUDA, są z natury trudne do nauczenia się i używania. Dzięki rozwiązaniom typu open source, takim jak TensorFlow i PyTorch, jest sto razy więcej programistów, którzy mogą wykorzystać te frameworki do kodowania aplikacji ML na dużą skalę w Prodigy. Dzięki obsłudze środowisk uczenia głębokiego, które są łatwiejsze do nauczenia, budowania i trenowania zróżnicowanych sieci neuronowych, Tachyum jest w stanie przezwyciężyć i wyjść poza ograniczenia stojące przed osobami pracującymi wyłącznie z CUDA firmy NVIDIA lub z OpenCL.
W podobny sposób, w jaki zewnętrzne koprocesory zmiennoprzecinkowe i chipy koprocesorów wektorowych zostały zinternalizowane w CPU, Tachyum tworzy zewnętrzne koprocesory macierzowe dla AI jako integralną część procesora. Dzięki zintegrowanym operacjom macierzowym w ramach Prodigy, Tachyum jest w stanie zapewnić bardzo precyzyjną akcelerację sieci neuronowej do 10 razy szybciej niż inne rozwiązania. Wsparcie Tachyum dla 16-bitowych typów danych zmiennoprzecinkowych i niższej precyzji poprawia wydajność i oszczędza energię w zastosowaniach, takich jak przetwarzanie wideo. Szybszy niż NVIDIA A100, Prodigy wykorzystuje skompresowane typy danych, aby umożliwić większe modele zmieścić się w pamięci. Zamiast 20 GB współdzielonej koherentnej pamięci Tachyum pozwala na 8 TB na układ i 64 TB na węzeł.
Serwery uniwersalne z zasilaniem bezczynnym Prodigy w hiperskalowych centrach danych, poza godzinami szczytu, dostarczą 10 razy więcej zasobów szkoleniowych / wnioskowania AI Neural Network niż obecnie dostępne, bez nakładów CAPEX (tj. Przy niskich kosztach, ponieważ uniwersalne serwery obliczeniowe z napędem Prodigy są już dostępne) kupione i opłacone). Tachyum’s Prodigy umożliwia przetwarzanie brzegowe i produkty IOT, które będą miały wbudowane wysokowydajne wnioskowanie AI zoptymalizowane pod kątem wykorzystania szkolenia AI opartego na Prodigy z chmury lub biura domowego.
„Publikacje biznesowe i branżowe przewidują, jak ważna będzie sztuczna inteligencja na rynku, z szacunkami na temat ponad 50% wzrostu PKB” – powiedział dr Radoslav Danilak, założyciel i dyrektor generalny Tachyum. „Oznacza to, że mniej niż 1 procent danych przetwarzanych obecnie przez sztuczną inteligencję wzrośnie aż do 40 procent, a 3 procent mocy planet wykorzystywanych przez centra danych wzrośnie do 10 procent w 2025 roku. Istnieje pilna potrzeba rozwiązanie, które oferuje niskie zużycie energii, szybkie przetwarzanie oraz łatwość użytkowania i implementacji. Poprzez włączenie ram open source, takich jak TensorFlow i PyTorch, jesteśmy w stanie przyspieszyć AI i ML na całym świecie, a obliczenia na skalę ludzką pojawią się w ciągu 2 do 3 lat ”.
Tachyum’s Prodigy może uruchamiać aplikacje HPC, splotową sztuczną inteligencję, możliwą do wyjaśnienia sztuczną inteligencję, ogólną sztuczną inteligencję, bio AI i spikowane sieci neuronowe, a także normalne obciążenia centrum danych na jednej jednorodnej platformie procesora z prostym modelem programowania. Używanie CPU, GPU, TPU i innych akceleratorów zamiast Prodigy do tych różnych typów obciążeń jest nieefektywne. Heterogeniczna struktura przetwarzania z unikalnym sprzętem dedykowanym do każdego rodzaju obciążenia (np. Centrum danych, sztuczna inteligencja, HPC) powoduje niepełne wykorzystanie zasobów sprzętowych i trudniejsze środowisko programistyczne. Zdolność Prodigy do bezproblemowego przełączania się między tymi różnymi obciążeniami radykalnie zmienia krajobraz konkurencyjny i ekonomikę centrów danych.
Prodigy znacząco poprawia wydajność obliczeniową, zużycie energii, wykorzystanie sprzętu (serwera) i wymagania dotyczące miejsca w porównaniu z istniejącymi chipami dostarczanymi obecnie w hiperskalowych centrach danych. Pozwoli to również programistom Edge dla IoT wykorzystać jego niski pobór mocy i wysoką wydajność, a także prosty model programowania w celu dostarczania sztucznej inteligencji do krawędzi.
Prodigy to naprawdę uniwersalny procesor. Oprócz natywnego kodu Prodigy obsługuje również starsze pliki binarne x86, ARM i RISC-V. A dzięki pojedynczej, bardzo wydajnej architekturze procesora Prodigy zapewnia wiodącą w branży wydajność w zakresie obciążeń centrów danych, AI i HPC. Prodigy, flagowy uniwersalny procesor firmy, wejdzie do produkcji seryjnej w 2021 roku. W kwietniu chip Prodigy z powodzeniem udowodnił swoją żywotność, a pełny układ chipów przekracza docelowe prędkości. W sierpniu procesor jest w stanie poprawnie wykonywać krótkie programy, których wyniki są automatycznie weryfikowane z modelem oprogramowania, przekraczając docelowe prędkości taktowania. Następnym krokiem jest uzyskanie wyprodukowanego w pełni funkcjonalnego prototypu układu FPGA jeszcze w tym roku, co jest ostatnim kamieniem milowym przed taśmą.
Prodigy przewyższa najszybsze procesory Xeon przy 10-krotnie niższej mocy w przypadku obciążeń centrum danych, a także przewyższa najszybsze GPU firmy NVIDIA w zakresie HPC, treningu sztucznej inteligencji i wnioskowania. Zaledwie 125 stojaków HPC Prodigy może dostarczyć 32 tensorowe EXAFLOPS. 3-krotnie niższy koszt MIPS i 10-krotnie niższa moc rdzenia Prodigy przekłada się na 4-krotnie niższy całkowity koszt posiadania (TCO) centrum danych, umożliwia miliardy dolarów oszczędności dla hiperskalerów, takich jak Google, Facebook, Amazon, Alibaba i inne. Ponieważ Prodigy jest jedynym na świecie procesorem, który może przełączać się między centrami danych, sztuczną inteligencją i obciążeniami HPC, nieużywane serwery mogą być używane jako AI wolna od CAPEX lub chmura HPC, ponieważ serwery zostały już zamortyzowane.