Sarcina Technology wprowadza systemy wiórów AI umożliwiające systemy do 100 x 100 mm w jednym pakiecie


Sarcina Technology, globalny specjalista od opakowań półprzewodnikowych, z radością ogłosi wprowadzenie innowacyjnej platformy AI w celu umożliwienia zaawansowanych rozwiązań opakowań AI, które można dostosować do określonych wymagań klientów. Wykorzystując technologię zespołu Focos-CL (Fan-Out-Out-on-Substrate-Chip), platforma ta obejmuje interposer, który obsługuje chiplety przy użyciu UCIE-A dla interkonektów umierających, umożliwiając dostarczanie opłacalnych, dostosowywanych, najnowocześniejszych rozwiązań.

Sarcina Technology ma misję przekraczania granic rozwoju systemu obliczeniowego AI poprzez zapewnienie unikalnej platformy, która umożliwia wydajne, skalowalne, konfigurowalne i opłacalne rozwiązania opakowań półprzewodników dla aplikacji AI. W miarę ewolucji obciążeń AI, istnieje potrzeba coraz bardziej wyrafinowanych rozwiązań opakowaniowych zdolnych do wspierania wyższych wymagań obliczeniowych. Nowatorska technologia opakowań interposerów Sarcina integruje wiodące rozwiązania pamięci z wysoko wydajnymi połączeniami. Niezależnie od tego, czy ustalanie priorytetów kosztów, wydajności czy wydajności władzy, nowa platforma AI Sarcina może dostarczyć.

Według dr Larry Zu, CEO Sarcina Technology:

„Sześć lat temu, po prototypowaniu pakietu interposerów z silikonowym silikonem TSV, który zintegrował jeden ASIC i dwa HBM, przewidzieliśmy, że ta technologia umożliwi bardzo złożone rozwiązania obliczeniowe. Dziś ta wizja staje się rzeczywistością, napędzana przez interkonekty RDL-To-Die, takie jak UCIE.”

ZU kontynuuje: „Dzięki technologii montażu Focos wkraczamy w nową erę obliczeń AI. Nasza platforma AI oferuje większą wydajność i dostosowywanie, przy najniższych kosztach branży dla generatywnych układów AI. Zapewnia to, że nasi klienci pozostaną konkurencyjni w szybko ewoluującym krajobrazie AI”.

Zespół Sarcina z powodzeniem opracował interposera z do 64 bitów interfejsu danych na moduł, osiągając szybkość danych do 32 GT/s. Zapewnia to najwyższą wydajność UCIE-A pod względem przepustowości i szybkości danych, jak określono w standardzie UCIE 2.0. Aby dodatkowo zwiększyć przepustowość przesyłania danych, wiele modułów można ułożyć równolegle wzdłuż krawędzi kości krzemu. Istnieje również wybór między chipsami pamięci LPDDR5x/6 i HBMS.

Sarcina ma szeroką wiedzę specjalistyczną w zakresie projektowania pakietów półprzewodników o dużej mocy. Umożliwia to startupom półprzewodnikowym skupienie się na opracowywaniu wydajnych algorytmów dla generatywnego szkolenia AI i EDGE AI bez potrzeby drogi zespołu projektowego i produkcyjnego po SILICON. Startupy mogą po prostu opracować swój krzem i przekazać go do Sarciny w celu opakowania po slilikonie, usprawniając proces i zmniejszając koszty przy jednoczesnym zachowaniu wysokiej wydajności. Rozwiązanie interposerów Sarcina umrzewane umożliwia klientom AI korzystanie z chipletów do tworzenia dużych miejsc krzemu, wspierając obliczenia o wysokiej wydajności z zadowalającymi plonami opłat. Ta duża konstrukcja opakowania pozwala na integrację większej pamięci, która jest kluczowa dla generatywnych aplikacji AI, które wymagają szybkiego, równoległego przetwarzania danych.

Kluczowe funkcje nowej platformy Sarcina AI:

  • Opłacalny projekt chipletów: opłacalna alternatywa dla drogich rozwiązań SOC.
  • Szybkie połączenia umierające ze standardem UCIE-A: do 64-bitowym interfejs danych na moduł i prędkość transmisji 32 GT/s na pas. Obsługuje konfiguracje wielu modułów, redundancję połączeń i konfiguracje opaski bocznej określone w standardach UCIE 2.0.
  • Focos-CL Zaawansowane technologia opakowań: opłacalna wymiana kosztowej technologii interposerów inposerów krzemowych 2,5D (SILICON SILICON), a także inne drogie rozwiązania, takie jak krzemowy most z fan-out RDL wzajemne połączenia.
  • Opcje LPDDR5X/6 i HBM: Zapewniają doskonałą przepustowość pamięci i wydajność obsługi różnych obciążeń AI. Pamięć LPDDR6 zawiera również technologię stosu 3D podobną do HBM, osiągając szybkość danych około 10 gt/s.
  • Skalowalny rozmiar pakietu: Obsługuje rozmiary pakietów do 100 mm x 100 mm, umożliwiając skalowalność dla różnych aplikacji AI.
  • Specyfikacje zasilania: <500 W dla chłodzenia przymusowego powietrza i do 1000 W z chłodzeniem cieczy, oferując elastyczne opcje wdrażania.
  • Integracja pamięci: Obsługuje do 20 układów pamięci LPDDR5x/6 lub do 8 układów HBM3E, ułatwiając szybkie przetwarzanie danych dla obciążeń AI.

Uruchomienie platformy AI Sarcina ma na celu przekształcenie możliwości obliczeniowych AI w różnych branżach, takich jak systemy autonomiczne, centra danych i obliczenia naukowe.

Reklama



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

20 lat temu pierwsze filmy przesłane do YouTube były krótkie i słodkie

Dwie dekady temu YouTube nie chodziło o skomplikowaną długą zawartość pompowaną przez twórców takich jak Mrbeast. Nie było żadnego fantazyjnego oświetlenia, efektów dźwiękowych...

Hitachi Vantara: VSP One prowadzi odnowione portfolio pamięci

W tym Profil dostawcy przechowywaniapatrzymy na Hitachi Vantaraktóra jest niewielką częścią bardzo dużej organizacji. Odkąd ostatnio spojrzeliśmy na Hitachi Vantarę, jego portfolio przechowywania...

Odbudowa Intel: Q1 Wyniki ujawniające plan TAN w celu odwrócenia spadku

Intel jest na rozdrożu, ponieważ firma przygotowuje się do zgłoszenia zarobków 24 kwietnia 2025 r. Inwestorzy mają nadzieję LIP-BU TANNowy dyrektor generalny Intela,...
Advertisment