NetApp będzie nadal mocno naciskać na zarządzanie danymi dla obciążeń sztucznej inteligencji (AI) i wykorzystał okazję, aby wyjaśnić ten ruch na swoim Wgląd 2024 wydarzenie w tym tygodniu w Las Vegas.
Podstawą tego jest zarządzanie danymi za pośrednictwem globalnej przestrzeni nazw metadanych w systemie operacyjnym pamięci masowej Ontap, którego celem jest ułatwienie wyszukiwania, klasyfikowania, eksplorowania, przetwarzania i udostępniania danych korporacyjnych. przechowuj dane do modelowania AI i wnioskowanie.
Zapowiedziano także nowe macierze pamięci masowej blokowej ASA i zorientowane na pliki macierze FAS, dodatki do ochrony przed oprogramowaniem ransomware w systemie operacyjnym Ontap i płaszczyźnie sterowania BlueXP oraz nowe usługi pamięci masowej NetApp w Microsoft Azure i Google Cloud.
Zarządzanie danymi dla AI
Firma NetApp przedstawiła swoją wizję innowacji w dziedzinie sztucznej inteligencji w sposób, który jeszcze bardziej ją do tego zachęca zarządzanie danymi dla AI terytorium.
Podstawą tej wizji jest zestaw usług, które umożliwiają gromadzenie danych za pomocą niestandardowych kryteriów, niezależnie od tego, czy na miejscu, czy w chmurze i w dowolnej lokalizacji. Można to zrobić za pomocą pytań w języku naturalnym i uzyskanych w ten sposób zbiorów udostępnianych do przetwarzania przez AI.
George Kurian, dyrektor generalny NetApp, powiedział: „Znajdujemy się w interesującym momencie ewolucji krajobrazu biznesu i technologii, na styku danych i inteligencji.
„Istnieje luka między tym, co potrafią systemy AI – chipy, systemy – a systemami danych. NetApp ma na celu wprowadzenie inteligencji do infrastruktury i danych w infrastrukturze, aby zapewnić zestaw narzędzi do zrozumienia i eksploracji danych, aby można je było wybierać i wykorzystywać”.
Mówiąc konkretnie o mechanizmach działania sztucznej inteligencji, Kurian mówił o potrzebie wprowadzenia większej inteligencji do modeli przetwarzania, modelowania możliwości śledzenia, wersjonowania i bezpieczeństwa danych w całym cyklu ich życia, przy użyciu zasad, które będą się zmieniać wraz z danymi.
Krish Vitaldevera, starszy wiceprezes i dyrektor generalny ds. platformy w NetApp, rozwinął temat. „Wszystko sprowadza się do tego, że uważamy, że AI to problem danych, ale jest złożony i kosztowny” — powiedział.
W szczególności zidentyfikowano Vitaldevera baza danych wektorowych wzdęcie, gdzie na przykład podczas generacja wspomagana wyszukiwaniem (RAG) W przypadkach użycia potoku liczba wymiarów w danych jest mnożona, dodawane są białe znaki, dodawane jest więcej danych, co może spowodować, że łączna ilość danych zwiększy się ośmio- lub dziesięciokrotnie.
Według Vitaldevera nowa funkcjonalność Ontap ma na celu rozwiązanie tego problemu poprzez redukcję danych.
Nowy blok ASA i zgłaszający FAS
W międzyczasie firma NetApp poinformowała o rozszerzeniu rodziny macierzy pamięci masowej ASA i FAS.
Starszy wiceprezes i dyrektor generalny ds. pamięci masowej w przedsiębiorstwach w NetApp, Sandeep Singh, powiedział: „Próbujemy rozwiązać problem, że klienci często stają przed wyborem między prostą pamięcią masową blokową a pamięcią masową z możliwościami skalowania i zaawansowanym zarządzaniem danymi. Co jeśli możliwe jest uzyskanie złożoności i mocy bez kompromisu?”
Mając to na uwadze, firma NetApp wprowadziła na rynek macierze pamięci masowej ASA A70, A90 i A1K, które, jak twierdzi firma, charakteryzują się większą wydajnością o 109% (A70), 88% (A90) i 50% (A1K) w porównaniu do istniejących wersji.
Twierdzi również, że koszty początkowe są niższe od kosztów konkurencji, o 20–35%. „Umożliwia modernizację w ramach każdego budżetu” — powiedział Singh, dodając, że docelowe obciążenia to VMware, Oracle, SAP, bazy danych SQL i systemy dokumentacji medycznej Epic.
Tymczasem NetApp ogłosiło nowe macierze FAS przeznaczone do obciążeń drugorzędnych, takich jak kopie zapasowe. Tutaj nowy FAS70 twierdzi, że ma 85% wzrostu prędkości w porównaniu z FAS8300, a nowy FAS90 35% wzrostu w porównaniu z istniejącym FAS9500.
Nowa seria ASA A dodaje rodzinę pamięci masowej zoptymalizowaną pod kątem bloków do istniejącej serii pamięci flash AFF zorientowanej na pliki, wprowadzonej na rynek w maju. Nowe macierze FAS oferują niższy poziom hybrydowa pamięć flash (z dyskiem twardym) z optymalizacją pojemności wyposażony w pamięć flash typu quad-level cell (QLC) Pomiędzy nimi znajdują się serie AFF i ASA C.
Uaktualnienia oprogramowania ransomware
Firma NetApp poinformowała o udoskonaleniu ochrony i reakcji na ataki ransomware w Ontap i swojej płaszczyźnie sterowania BlueXP.
W Ontap – teraz w wersji 9.16.1 – autonomiczna ochrona przed ransomware osiągnęła ogólną dostępność (GA). Sprowadza się to do automatycznych aktualizacji profili ransomware, wykrywania opartego na sztucznej inteligencji z deklarowaną precyzją 99% i tworzenia niezmiennych migawek w odpowiedzi.
BlueXP dodaje pulpit, w którym klienci mogą skanować swoje dane pod kątem potencjalnych zagrożeń – takich jak obecność danych osobowych (PII) – kategoryzować obciążenia i ustalać priorytety poziomów ochrony. Zapewnia również możliwość tworzenia alertów dotyczących podejrzanej aktywności użytkownika (dostępne pod koniec 2024 r.).
Możliwa jest również integracja umożliwiająca wysyłanie alertów o zagrożeniu ransomware bezpośrednio do ekosystemu bezpieczeństwa organizacji w celu przyspieszenia cyklu wykrycia i reakcji.
Wzmocnione opcje w chmurze
W usłudze Azure NetApp Files, gdzie pamięć masowa NetApp jest dostępna jako usługa, dostępna będzie nowa opcja Cool Access. Ta warstwa danych jest przenoszona do tańszej pamięci masowej Azure Blob (obiekt), gdy korzystanie z niej staje się rzadsze, ale przywraca je, gdy potrzebuje ich aplikacja lub użytkownik.
W Google Cloud NetApp Volumes opcja Value Flex jest teraz dostępna w 40 regionach Google Cloud. Również w Google Cloud automatyczne warstwowanie przenosi dane z wyższych poziomów usług do tańszego magazynu.
Możliwość audytu VMware
Obawy o koszty VMware to aktualny trend po zmianach w licencjonowaniu po zakup giganta wirtualizacji przez Broadcom. Tutaj NetApp oferuje teraz zautomatyzowaną usługę z BlueXP, która zapewnia audyt majątku VMware klienta, porównuje go z opcjami wydajności i kosztów w Amazon EC2 z pamięcią masową NetApp, na podstawie czego może zasugerować plan migracji.
Partnerstwa AI
Firma NetApp ogłosiła również, że w najbliższym czasie rozpoczną się testy pamięci masowej Nvidia DGX SuperPod oraz NetApp AFF A90.
Na konferencji Insight 2024 zaprezentowano także NetApp AIPod z Lenovo, obejmujące serwery Lenovo, pamięć masową NetApp i platformę Nvidia OVX, a także nową ofertę konwergentnej infrastruktury NetApp FlexPod przeznaczoną do obciążeń AI RAG.