Na konferencji Intel Innovation firma zaprezentowała technologie, które pozwolą zastosować sztuczną inteligencję wszędzie i zwiększyć jej dostępność we wszystkich obciążeniach — od klienta i brzegu po sieć i chmurę. Należą do nich łatwy dostęp do rozwiązań AI w chmurze, lepsza wydajność cenowa akceleratorów AI dla centrów danych Intel w porównaniu z ofertami konkurencji, dziesiątki milionów nowych komputerów Intel z obsługą AI dostarczonych w 2024 r. oraz narzędzia do bezpiecznego zasilania wdrożeń AI na krawędzi.
Aby przyspieszyć innowacje, sztuczna inteligencja wymaga szerokiej gamy rozwiązań opracowanych z myślą o otwartości i bezpieczeństwie. Portfolio sprzętu i oprogramowania firmy Intel obsługującego sztuczną inteligencję — od procesorów, procesorów graficznych i akceleratorów po model programowania oneAPI, zestaw narzędzi dla programistów OpenVINO i biblioteki wzmacniające ekosystem sztucznej inteligencji — zapewnia klientom konkurencyjne, wydajne i otwarte rozwiązania umożliwiające szybkie wdrażanie sztucznej inteligencji na wadze.
Intel Developer Cloud osiąga ogólną dostępność
Firma Intel ogłosiła ogólną dostępność usługi Intel Developer Cloud, która zapewnia programistom łatwą ścieżkę do testowania i wdrażania aplikacji i rozwiązań AI oraz obliczeń o wysokiej wydajności na najnowszych procesorach, procesorach graficznych i akceleratorach AI firmy Intel. Programiści mogą również korzystać z najnowocześniejszych narzędzi, aby umożliwić zaawansowaną sztuczną inteligencję i wydajność. Szczegóły:
Chmura Intel Developer Cloud opiera się na zaawansowanych jednostkach centralnych (CPU) zaprojektowanych specjalnie dla sztucznej inteligencji, jednostkach przetwarzania grafiki (GPU) i procesorach Intel Gaudi 2 do głębokiego uczenia się, a także otwartym oprogramowaniu i narzędziach. Środowisko programistyczne w chmurze zapewnia także dostęp do najnowszych platform sprzętowych Intel, takich jak procesory Intel Xeon Scalable piątej generacji (o nazwie kodowej Emerald Rapids), które będą dostępne w chmurze Intel Development Cloud w ciągu najbliższych kilku tygodni i zostaną wprowadzone na rynek 14 grudnia oraz procesory graficzne Intel Data Center Max z serii 1100 i 1550.
Programiści mogą używać Intel Developer Cloud do tworzenia, testowania i optymalizowania aplikacji AI i obliczeń o wysokiej wydajności. Mogą także prowadzić szkolenia w zakresie sztucznej inteligencji na małą i dużą skalę, optymalizację modeli i obciążenia wnioskowania, które można wdrażać z dużą wydajnością. Oparta na otwartym oprogramowaniu z oneAPI — otwartym modelem programowania obejmującym wiele architektur i wielu dostawców — Intel Developer Cloud zapewnia wybór sprzętu i wolność od zastrzeżonych modeli programowania w celu obsługi przyspieszonego przetwarzania oraz ponownego wykorzystania kodu i przenośności.
Dynamika klientów i wydajności w centrum danych
Firma Intel ogłosiła aktualizacje wydajności sztucznej inteligencji i dynamikę branży w zakresie swojego portfolio produktów do centrów danych i sztucznej inteligencji, w tym Intel Gaudi 2 i 3; Intel Xeon czwartej generacji; Intel Xeon piątej generacji; oraz procesory Xeon przyszłej generacji o nazwach kodowych Sierra Forest i Granite Rapids. Szczegóły:
- Firma Intel ogłosiła, że duży superkomputer AI zostanie zbudowany w całości na procesorach Intel Xeon i 4000 akceleratorach sprzętowych Intel Gaudi2 AI, a głównym klientem będzie Stability AI.
- Firmy Dell Technologies i Intel współpracują, aby oferować rozwiązania AI, które pomogą klientom w każdym miejscu, w którym się znajdują. Systemy PowerEdge z procesorami Xeon i Gaudi będą obsługiwać obciążenia AI, od szkoleń na dużą skalę po wnioskowanie na poziomie podstawowym.
- Alibaba Cloud zgłosiła procesor Xeon czwartej generacji jako realne rozwiązanie do wnioskowania w modelu dużego języka (LLM) w czasie rzeczywistym na swojej platformie obsługującej modele DashScope, przy czym procesor Xeon czwartej generacji osiąga 3-krotne przyspieszenie czasu reakcji dzięki wbudowanej technologii Intel Advanced Matrix Akceleratory rozszerzeń (Intel AMX) i inne optymalizacje oprogramowania.
- Granite Rapids będzie zawierał wiodące w branży rdzenie Performance (rdzenie P), oferujące lepszą wydajność AI niż jakikolwiek inny procesor i 2-3 razy większe w porównaniu z procesorami Xeon 4. generacji w przypadku obciążeń AI.
Nowe możliwości sztucznej inteligencji obsługiwane przez procesory Intel Core Ultra
Intel wprowadzi erę komputerów stacjonarnych wyposażonych w sztuczną inteligencję wraz z nadchodzącymi procesorami Intel Core Ultra o nazwie kodowej Meteor Lake, wyposażonymi w pierwszą zintegrowaną jednostkę przetwarzania neuronowego (NPU) firmy Intel, zapewniającą energooszczędne przyspieszanie sztucznej inteligencji i lokalne wnioskowanie na komputerze PC. Intel potwierdził, że Core Ultra zadebiutuje 14 grudnia. Szczegóły:
- Core Ultra zapewnia obliczenia AI o niskim opóźnieniu, niezależne od łączności i zapewniające większą prywatność danych.
- Core Ultra po raz pierwszy integruje NPU z krzemem klienckim. Jednostka NPU została zbudowana tak, aby zapewnić niski pobór mocy i wysoką jakość oraz zapewnić zupełnie nowe wrażenia z komputera PC. Jest to idealne rozwiązanie w przypadku obciążeń migrujących z procesora, które wymagają wyższej jakości i wydajności, lub w przypadku obciążeń, które zazwyczaj działają w chmurze ze względu na brak wydajnych obliczeń klienta.
- Core Ultra stanowi punkt zwrotny w planie rozwoju procesorów klienckich Intela: jest to pierwszy projekt chipsetu klienckiego, który powstał dzięki technologii pakowania Foveros. Oprócz procesora NPU i znacznych postępów w zakresie energooszczędnej wydajności dzięki technologii procesowej Intel 4, nowy procesor zapewnia dyskretną wydajność graficzną dzięki wbudowanej grafice Intel Arc.
- Zdezagregowana architektura Core Ultra zapewnia równowagę wydajności i mocy w zadaniach opartych na sztucznej inteligencji:
- Procesor graficzny charakteryzuje się równoległą wydajnością i przepustowością, idealną do stosowania sztucznej inteligencji w mediach, aplikacjach 3D i potoku renderowania.
- NPU to dedykowany silnik sztucznej inteligencji o niskim poborze mocy, umożliwiający ciągłe odciążanie sztucznej inteligencji i sztucznej inteligencji.
- Procesor charakteryzuje się szybką reakcją, idealną do lekkich zadań AI z pojedynczym wnioskowaniem i niskimi opóźnieniami.
- Intel podkreślił współpracę z firmą Acer w celu wprowadzenia sztucznej inteligencji do nadchodzących systemów Core Ultra, pokazując, w jaki sposób nowa funkcja oprogramowania „Acer Parallax” wykorzystuje jednostkę NPU do dodawania trójwymiarowego wyglądu do obrazów użytkowników.
Zasilanie sztucznej inteligencji na krawędzi
Możliwości przetwarzania brzegowego są ogromne, napędzane zapotrzebowaniem na automatyzację systemów i analizowanie danych za pomocą sztucznej inteligencji. OpenVINO to środowisko wykonawcze firmy Intel do wnioskowania i wdrażania sztucznej inteligencji wybierane przez programistów na platformach klienckich i brzegowych. Dzięki zestawowi narzędzi dla programistów OpenVINO firma Intel sprawia, że sztuczna inteligencja na krawędzi jest jeszcze bardziej dostępna. Tylko w zeszłym roku liczba pobrań pakietu narzędzi OpenVINO przez programistów wzrosła o 90% w porównaniu z rokiem poprzednim. Szczegóły:
- OpenVINO 2023.1, obsługiwane przez oneAPI, sprawia, że generatywna sztuczna inteligencja jest bardziej dostępna w rzeczywistych scenariuszach, umożliwiając programistom jednorazowe pisanie i wdrażanie na szerokiej gamie urządzeń i aplikacji AI.
- Najnowsza wersja – dostępna do pobrania na OpenVINO.ai – przybliża firmę Intel do wizji dowolnego modelu na dowolnym sprzęcie w dowolnym miejscu.
- OpenVINO 2023.1 umożliwia programistom optymalizację standardowych modeli PyTorch, TensorFlow lub ONNX i oferuje pełne wsparcie dla nadchodzących procesorów Core Ultra. Zapewnia także więcej technik kompresji modeli, lepszą obsługę procesora graficznego i zużycie pamięci dla dynamicznych kształtów, a także większą przenośność i wydajność w całym kontinuum obliczeniowym: w chmurze, kliencie i na krawędzi.
- Podczas pierwszego dnia innowacji firma Intel zademonstrowała Fit:match, rozwiązanie oparte na sztucznej inteligencji, które usprawnia korzystanie z przymierzalni w handlu detalicznym. Funkcja 3D Concierge firmy Fit:match wykorzystuje kamery głębinowe Intel RealSense z czujnikami lidarowymi, procesory Intel Core i OpenVINO. Koncentrując się na bezpieczeństwie i prywatności, rozwiązanie może skanować i dopasowywać tysiące produktów, aby zapewnić optymalne dopasowanie do klienta, co zwiększa konwersję zakupową i zmniejsza stopy zwrotów.