Firma zajmująca się sztuczną inteligencją oszczędza milion dzięki przejściu na współdzieloną pamięć masową Pure FlashBlade


Firma konsultingowa zajmująca się sztuczną inteligencją (AI) z siedzibą w Toronto, Crater, zaoszczędziła około 1,5 miliona dolarów kanadyjskich (885 000 funtów) w czasie badaczy po zastąpieniu trudnej w konfiguracji bezpośrednio podłączanej pamięci masowej współdzieloną pojemnością w macierzy FlashBlade firmy Czyste przechowywanie.

Posunięcie to praktycznie wyeliminowało potrzebę spędzania czasu przez badaczy konfiguracja infrastruktury pamięci masowej dla AI szkolenia prowadzone są na projektach klientów.

Krater dostarcza dowodów koncepcji i prac badawczych w AI dla swoich klientów. Koncentruje się to na fazie szkoleniowej AI, po której zakończeniu projekty są przekazywane klientowi.

Eksperymenty, nad którymi pracował dla klientów, obejmują rozwój sztucznej inteligencji w celu: wykrywania defektów w procesach produkcyjnych; analizuj dane SEC w trzy dni zamiast 10; obliczaj trasy dostaw dla tysięcy ciężarówek w czasie o dwie trzecie krótszym; i wykrywaj anomalie w rozliczeniach z dokładnością do 93% dla firm telekomunikacyjnych i użyteczności publicznej.

„Klienci mogą wykonaj przetwarzanie AI/ML ale nie są w stanie przeprowadzić wewnętrznych badań, aby opracować coś, co nie jest dostępne od ręki” – powiedział Eidoo. „Klienci proszą nas o opracowywanie nowych modeli w oparciu o najnowsze osiągnięcia akademickie”.

Wcześniej Crater pracował w chmurze lub na własnej, podłączonej pamięci flash i dysku obrotowym na serwerach.

Reklama

Uruchamianie sztucznej inteligencji w chmurze okazało się kosztowne dla firmy, powiedział Eidoo. „Nasze projekty to często zbiory danych o wielkości wielu terabajtów, a szkolenie w chmurze nie było najpraktyczniejszą rzeczą” – powiedział. „Zestawy danych są zróżnicowane, ponieważ prowadzimy jednocześnie wiele projektów dla klientów, co może oznaczać wiele typów i rozmiarów plików, a to powoduje ograniczenia w sposobie interakcji z usługami dostawcy usług w chmurze”.

Wewnętrzne ograniczenia pojawiły się podczas próby jednoczesnego zasilania wielu modeli heterogenicznymi nośnikami danych podzielonymi na wiele serwerów.

„Jednocześnie mogło być realizowanych 12 projektów, a nasi badacze musieli skonfigurować dla nich pamięć masową” – powiedział Eidoo. „Typy danych mogą obejmować bardzo duże obrazy i bazy danych, a wszystkie są bardzo różne We/Wy [input/output] podpisy.

„Ponieważ każdy serwer miał własną pamięć masową, było dużo przerzucania danych we właściwe miejsce, ale mimo to często nie udało się nasycić procesorów graficznych [graphics processing units],” powiedział. „Nie chcieliśmy się tym wszystkim zajmować. Konfigurowanie pamięci masowej dla każdego eksperymentu zajmowało naszym badaczom trzy lub cztery dni”.

Dlatego Crater przeszedł na technologię Pure Storage FlashBlade, która obsługuje dane nieustrukturyzowane w plikach i blokach pamięci masowej i jest dostarczana z dyskami flash TLC lub QLC (o większej pojemności).

Crater obsługuje pamięć FlashBlade o pojemności około 127 TB, która zapewnia pojemność pamięci masowej za pośrednictwem sieci Ethernet klastrom serwerów AI opartych na systemie Linux, które obsługują „kilka tuzinów” procesorów graficznych Nvidia. Obciążenia AI są gromadzone za pośrednictwem kontenerów, którym można łatwo zapewnić odpowiednią pojemność.

Najważniejszą korzyścią jest to, że badacze nie muszą teraz tracić czasu na konfigurowanie pamięci masowej dla każdego przebiegu szkoleniowego AI. „Praca nad zadaniami związanymi z infrastrukturą zajmowała naukowcom około 10% czasu spędzonego nad każdym projektem” – powiedział Eidoo. „To już praktycznie wyeliminowane. Nie zastanawiamy się dwa razy nad lokalizacją danych”.

Stwierdził, że oznacza to, że czas szkolenia modeli skrócił się o 25–40%. „Oznacza to, że zespół nie będzie czekał przez dwa lub trzy tygodnie” – powiedział Eidoo. „Pomnóż to przez 12 eksperymentów i czterech do sześciu badaczy, a otrzymasz całkiem duży efekt mnożnikowy. Oszczędzamy blisko 1,5 mln dolarów kanadyjskich, nie tracąc czasu na konfigurowanie infrastruktury”.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

MSI wypuszcza aktualizację oprogramowania układowego odtwarzaczy MPG 271QRX i MPG 321URX QD-OLED, zapewniającą kontrolę DSC

Firma MSI udostępniła dziś aktualizacje oprogramowania sprzętowego dla gamingowych monitorów MPG 271QRX QD-OLED i MPG 321URX QD-OLED. Aktualizacje mają na celu zapewnienie...

Eventide wiernie odtwarza kultowe brzmienie legendarnego Ultra-Harmonizera H3000 w formie wtyczki

Firma Eventide ogłosiła drugą generację powszechnie uznanych wtyczek H3000, zapewniających odtwarzanie 1:1 w formie cyfrowej legendarnego harmonizatora H3000. Jako jeden z najsłynniejszych...

NVIDIA wprowadzi na rynek flagową kartę GeForce RTX 5090 dopiero w 2024 r., resztę serii w 2025 r.

NVIDIA zadebiutowała obecną kartą RTX z serii 40 „Ada” w 2022 r., co oznacza, że ​​oczekuje się, że firma zadebiutuje w jakiejś formie...
Advertisment