Wywiad z CTO: Europa czerpie korzyści z przyrostu energii w układach AMD


Jeśli chodzi o moc obliczeniową, Europa stoi w obliczu czegoś, co na pierwszy rzut oka wydaje się paradoksem. Wydajność musi nadal rosnąć, a zużycie energii musi spadać.

„W ciągu następnej dekady efektywność energetyczna stanie się najwyższym priorytetem” — mówi Marek Papiernikdyrektor ds. technologii w AMD.

„Nie oznacza to, że wydajność systemów komputerowych jest mniej ważna. Musimy poprawiać osiągi przynajmniej w takim samym tempie jak poprzednicy Prawo Moore’aco oznacza podwojenie go mniej więcej co dwa lata”.

W rzeczywistości zapotrzebowanie na moc obliczeniową rośnie w znacznie szybszym tempie niż kiedykolwiek wcześniej. Na przykład algorytmy sztucznej inteligencji będą wymagać 10 razy większej mocy obliczeniowej każdego roku w dającej się przewidzieć przyszłości.

Według Papermaster zużycie energii będzie czynnikiem ograniczającym, ponieważ tempo wzrostu wydajności w przyszłych generacjach. AMD staje na wysokości zadania dzięki temu, co nazywa „holistycznym” podejściem do projektowania.

Gęstość tranzystorów nadal ma znaczenie. Może nie być na równi z prawem Moore’a, ale producenci chipów będą nadal wciskać więcej tranzystorów w każdą nową generację półprzewodników.

Reklama

Więcej tranzystorów zapewni większą funkcjonalność i wydajność. Podobnie częstotliwość – jak szybko działają tranzystory – nie będzie już rosła tak bardzo, jak to miało miejsce w przeszłości. I wreszcie cena tranzystorów idzie w górę. Wszystkie te aspekty prawa Moore’a zniknęły. Jednak same tranzystory będą się poprawiać z każdą nową generacją. AMD idzie jeszcze dalej, łącząc swoje ulepszone tranzystory z nowymi technikami projektowania dotyczącymi sposobu wykonywania obliczeń.

AMD planuje również wprowadzić innowacje w zakresie sposobu pakowania akceleratorów jednostki centralne (procesory). Oni już to zrobili z procesory graficzne (GPUS). AMD ma procesory graficzne zarówno do gier, jak i dystrybucji treści. Mają także procesory graficzne zaprojektowane specjalnie dla centrum danych — aby przyspieszyć szkolenie i wnioskowanie AI. W dniu 4 stycznia 2023 r. AMD ogłosiło zaczęli pakować akceleratory wnioskowania AI do Radeona 7000. Pakują również akcelerację z procesorami dla urządzeń wbudowanych.

„W całej linii produktów należy pomyśleć o akceleratorach, które można wbudować heterogenicznie – i aby to zrobić, trzeba zainwestować w nowe sposoby integracji tych akceleratorów z procesorem” — mówi Papermaster. „Nastąpił postęp w technologii pakowania i budujemy partnerstwa, aby czerpać korzyści z tych postępów”.

AMD zwiększyło również przepustowość między chipletami, co skutkuje wzrostem wydajności i niższym zużyciem energii. Ponadto integracja procesorów i procesorów graficznych praktycznie eliminuje kosztowną energię do przesyłania danych.

Wreszcie, AMD współpracuje z twórcami aplikacji, wykorzystując informacje o tym, jak działają aplikacje do projektowania i pakowania półprzewodników w celu spełnienia określonych potrzeb. Na przykład przetwarzanie transakcji ma inne potrzeby niż sztuczna inteligencja. I nawet w sztucznej inteligencji istnieje duża różnica między przetwarzaniem, które trenuje modele, a przetwarzaniem, które uruchamia wynikowe wyszkolone modele w dowolnym miejscu, od głęboko w chmurze po najmniejsze urządzenie na krawędzi.

„Aplikacje uruchamiane przez klienta wpływają na rodzaj tworzonego przez niego rozwiązania” — mówi Papermaster. „To, jak wykorzystujesz moc obliczeniową lokalnie lub w chmurze, ma znaczenie. W AMD dodajemy akcelerację w całym naszym portfolio i umożliwiamy naszym klientom zastosowanie odpowiedniego rozwiązania komputerowego w oparciu o potrzeby klienta. A w branży półprzewodników zamierzamy wykorzystać holistyczne projektowanie, aby nadal utrzymywać to historyczne wykładnicze tempo zaawansowanych możliwości obliczeniowych, pokolenie po pokoleniu”.

W dniu 29 września 2021 r. o godz. AMD ogłoszony ich inicjatywa „30 na 25”, oparta na heterogenicznych obliczeniach i holistycznym projektowaniu. Zobowiązali się do 30-krotnej poprawy efektywności energetycznej w przyspieszonym przetwarzaniu danych w centrach danych do roku 2025 w porównaniu z rokiem 2020.

30-krotna poprawa oznacza, że ​​do 2025 r. moc potrzebna akcelerowanemu przez AMD węzłowi obliczeniowemu do wykonania pojedynczego obliczenia będzie o 97% niższa niż w 2020 r. W zeszłym roku Mark Papermaster napisał w poście na blogu że są na dobrej drodze do osiągnięcia tego celu.

Zaspokajanie potrzeb specyficznych dla Europy

Europa wyprzedza resztę świata w zrozumieniu potrzeby energooszczędnych komputerów. Jednym z powodów jest to, że koszt energii jest znacznie wyższy w Europie, ale innym powodem jest wysoki poziom świadomości na temat zrównoważonego rozwoju.

Przykład tego, co AMD robi w Europie, ilustruje ich partnerstatek z LUMI, centrum superkomputerowe w Finlandii. Zbudowano heterogeniczny superkomputer AMD MI250GPU X.

Fińscy naukowcy opracowali już duży model języka fińskiego za pomocą LUMI. Ten model językowy opiera się na 13 miliardach parametrów. Teraz, AMD jest Praca z LUMI i Instytut Allena do końca roku opracować w pełni uniwersalny model języka o 70 miliardach parametrów.

„Po uruchomieniu ChatGPT odpowiedź może zająć do 10 sekund” — mówi Papermaster. „To zwykle działa na około ośmiu procesorach graficznych i jednym procesorze. Tak więc obecnie, w ciągu dnia, kiedy myślisz o 10 milionach zapytań ChatGPT dziennie, zużywa on mniej więcej tyle energii, ile potrzeba do zasilenia ponad 5000 domów. To ogromne zużycie energii, a dopiero zaczynamy.

„Częścią holistycznego projektu jest zastanowienie się, jak być bardziej wydajnym” — mówi. „Jak zmniejszyć rozmiar modelu zamiast miliardów parametrów? Jeśli mam konkretne zadanie, które próbuję wykonać dla aplikacji AI, czy mogę zmniejszyć rozmiar tego modelu i nadal mieć wystarczającą dokładność do zadania, które mam pod ręką?

„Już obserwujemy tę innowację” — mówi Papermaster. „To jest tam. Ludzie wprowadzają innowacje na różne sposoby, aby uczynić to bardziej wydajnym, bardziej ukierunkowanym, abyśmy nie osiągnęli bariery władzy. I możesz zrobić bardziej wyspecjalizowane algorytmy i mogłoby to być bardziej wydajne.

„Myślę, że jest to środowisko bogate w innowacje” — kontynuuje. „To po prostu pobudzi nowe podejście do wszystkiego, od krzemu aż po przestrzeń zastosowań – oraz na temat rozmiaru modelu i optymalizacji, które wprowadzamy w przyszłości. To przyspieszy całościowy projekt, jak to nazywam”.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Fallout Amazona został przedłużony na sezon 2

Zaledwie tydzień później spektakl miał swoją pierwszą premieręAmazon potwierdził, że jest więcej akcji na żywo Opad serial w drodze. Na razie nie...

HomePod z wyświetlaczem LCD ponownie potwierdzony wyciekiem części

Krążą pogłoski, że Apple pracuje nad nowym HomePodem z dotykowym wyświetlaczem LCD na górze widzieliśmy już kilka zdjęć tego niewydanego jeszcze urządzenia krążą...

Cena Meta Quest 2 zostanie na stałe obniżona do 199 dolarów

Quest 2 jest obecnie wypierany przez Zadanie za 500 dolarów 3oczywiście, ale nadal jest to niesamowity punkt wyjścia do VR, taki, w którym...
Advertisment