Jeśli chodzi o moc obliczeniową, Europa stoi w obliczu czegoś, co na pierwszy rzut oka wydaje się paradoksem. Wydajność musi nadal rosnąć, a zużycie energii musi spadać.
„W ciągu następnej dekady efektywność energetyczna stanie się najwyższym priorytetem” — mówi Marek Papiernikdyrektor ds. technologii w AMD.
„Nie oznacza to, że wydajność systemów komputerowych jest mniej ważna. Musimy poprawiać osiągi przynajmniej w takim samym tempie jak poprzednicy Prawo Moore’aco oznacza podwojenie go mniej więcej co dwa lata”.
W rzeczywistości zapotrzebowanie na moc obliczeniową rośnie w znacznie szybszym tempie niż kiedykolwiek wcześniej. Na przykład algorytmy sztucznej inteligencji będą wymagać 10 razy większej mocy obliczeniowej każdego roku w dającej się przewidzieć przyszłości.
Według Papermaster zużycie energii będzie czynnikiem ograniczającym, ponieważ tempo wzrostu wydajności w przyszłych generacjach. AMD staje na wysokości zadania dzięki temu, co nazywa „holistycznym” podejściem do projektowania.
Gęstość tranzystorów nadal ma znaczenie. Może nie być na równi z prawem Moore’a, ale producenci chipów będą nadal wciskać więcej tranzystorów w każdą nową generację półprzewodników.
Więcej tranzystorów zapewni większą funkcjonalność i wydajność. Podobnie częstotliwość – jak szybko działają tranzystory – nie będzie już rosła tak bardzo, jak to miało miejsce w przeszłości. I wreszcie cena tranzystorów idzie w górę. Wszystkie te aspekty prawa Moore’a zniknęły. Jednak same tranzystory będą się poprawiać z każdą nową generacją. AMD idzie jeszcze dalej, łącząc swoje ulepszone tranzystory z nowymi technikami projektowania dotyczącymi sposobu wykonywania obliczeń.
AMD planuje również wprowadzić innowacje w zakresie sposobu pakowania akceleratorów jednostki centralne (procesory). Oni już to zrobili z procesory graficzne (GPUS). AMD ma procesory graficzne zarówno do gier, jak i dystrybucji treści. Mają także procesory graficzne zaprojektowane specjalnie dla centrum danych — aby przyspieszyć szkolenie i wnioskowanie AI. W dniu 4 stycznia 2023 r. AMD ogłosiło zaczęli pakować akceleratory wnioskowania AI do Radeona 7000. Pakują również akcelerację z procesorami dla urządzeń wbudowanych.
„W całej linii produktów należy pomyśleć o akceleratorach, które można wbudować heterogenicznie – i aby to zrobić, trzeba zainwestować w nowe sposoby integracji tych akceleratorów z procesorem” — mówi Papermaster. „Nastąpił postęp w technologii pakowania i budujemy partnerstwa, aby czerpać korzyści z tych postępów”.
AMD zwiększyło również przepustowość między chipletami, co skutkuje wzrostem wydajności i niższym zużyciem energii. Ponadto integracja procesorów i procesorów graficznych praktycznie eliminuje kosztowną energię do przesyłania danych.
Wreszcie, AMD współpracuje z twórcami aplikacji, wykorzystując informacje o tym, jak działają aplikacje do projektowania i pakowania półprzewodników w celu spełnienia określonych potrzeb. Na przykład przetwarzanie transakcji ma inne potrzeby niż sztuczna inteligencja. I nawet w sztucznej inteligencji istnieje duża różnica między przetwarzaniem, które trenuje modele, a przetwarzaniem, które uruchamia wynikowe wyszkolone modele w dowolnym miejscu, od głęboko w chmurze po najmniejsze urządzenie na krawędzi.
„Aplikacje uruchamiane przez klienta wpływają na rodzaj tworzonego przez niego rozwiązania” — mówi Papermaster. „To, jak wykorzystujesz moc obliczeniową lokalnie lub w chmurze, ma znaczenie. W AMD dodajemy akcelerację w całym naszym portfolio i umożliwiamy naszym klientom zastosowanie odpowiedniego rozwiązania komputerowego w oparciu o potrzeby klienta. A w branży półprzewodników zamierzamy wykorzystać holistyczne projektowanie, aby nadal utrzymywać to historyczne wykładnicze tempo zaawansowanych możliwości obliczeniowych, pokolenie po pokoleniu”.
W dniu 29 września 2021 r. o godz. AMD ogłoszony ich inicjatywa „30 na 25”, oparta na heterogenicznych obliczeniach i holistycznym projektowaniu. Zobowiązali się do 30-krotnej poprawy efektywności energetycznej w przyspieszonym przetwarzaniu danych w centrach danych do roku 2025 w porównaniu z rokiem 2020.
30-krotna poprawa oznacza, że do 2025 r. moc potrzebna akcelerowanemu przez AMD węzłowi obliczeniowemu do wykonania pojedynczego obliczenia będzie o 97% niższa niż w 2020 r. W zeszłym roku Mark Papermaster napisał w poście na blogu że są na dobrej drodze do osiągnięcia tego celu.
Zaspokajanie potrzeb specyficznych dla Europy
Europa wyprzedza resztę świata w zrozumieniu potrzeby energooszczędnych komputerów. Jednym z powodów jest to, że koszt energii jest znacznie wyższy w Europie, ale innym powodem jest wysoki poziom świadomości na temat zrównoważonego rozwoju.
Przykład tego, co AMD robi w Europie, ilustruje ich partnerstatek z LUMI, centrum superkomputerowe w Finlandii. Zbudowano heterogeniczny superkomputer AMD MI250GPU X.
Fińscy naukowcy opracowali już duży model języka fińskiego za pomocą LUMI. Ten model językowy opiera się na 13 miliardach parametrów. Teraz, AMD jest Praca z LUMI i Instytut Allena do końca roku opracować w pełni uniwersalny model języka o 70 miliardach parametrów.
„Po uruchomieniu ChatGPT odpowiedź może zająć do 10 sekund” — mówi Papermaster. „To zwykle działa na około ośmiu procesorach graficznych i jednym procesorze. Tak więc obecnie, w ciągu dnia, kiedy myślisz o 10 milionach zapytań ChatGPT dziennie, zużywa on mniej więcej tyle energii, ile potrzeba do zasilenia ponad 5000 domów. To ogromne zużycie energii, a dopiero zaczynamy.
„Częścią holistycznego projektu jest zastanowienie się, jak być bardziej wydajnym” — mówi. „Jak zmniejszyć rozmiar modelu zamiast miliardów parametrów? Jeśli mam konkretne zadanie, które próbuję wykonać dla aplikacji AI, czy mogę zmniejszyć rozmiar tego modelu i nadal mieć wystarczającą dokładność do zadania, które mam pod ręką?
„Już obserwujemy tę innowację” — mówi Papermaster. „To jest tam. Ludzie wprowadzają innowacje na różne sposoby, aby uczynić to bardziej wydajnym, bardziej ukierunkowanym, abyśmy nie osiągnęli bariery władzy. I możesz zrobić bardziej wyspecjalizowane algorytmy i mogłoby to być bardziej wydajne.
„Myślę, że jest to środowisko bogate w innowacje” — kontynuuje. „To po prostu pobudzi nowe podejście do wszystkiego, od krzemu aż po przestrzeń zastosowań – oraz na temat rozmiaru modelu i optymalizacji, które wprowadzamy w przyszłości. To przyspieszy całościowy projekt, jak to nazywam”.