Wśród wyścigów zbrojeń, które mają miejsce w chmurze publicznej, jest wyścig skupiony na zapewnieniu najbardziej zaufane środowisko do hostowania aplikacji i danych.
To obszar, na którym bardzo skupia się Nelly Porter z Google. Porter jest dyrektorem ds. zarządzania produktami w Google, a jej obowiązki obejmują poufne przetwarzanie i szyfrowanie dla Google Cloud Platform (GCP). Poufne przetwarzanie to jedna z technik, których GCP używa do zabezpieczania danych.
„Poufne przetwarzanie danych to bardzo interesujący termin, który pochodzi z koncepcji przetwarzania danych” — wyjaśnia Porter. „Kiedy wykonujesz operacje na danych za pomocą aplikacji, poufne przetwarzanie danych wskazuje na fakt, że istnieje wiele technologii stworzonych w celu ochrony prywatności klientów i użytkowników.
„To technologia chroniąca prywatność, która pomaga nam chronić dane i obciążenia podczas ich używania, np. gdy aplikacja wykonuje operacje na tych danych. Oznacza to, że musi je przetworzyć. Musi je umieścić w pamięci i musi uruchomić operacje obliczeniowe na tych danych, wykorzystując sprzęt, taki jak Procesory [central processing units]GPU [graphics processing units] lub TPU [tensor processing units] lub jakiegokolwiek innego urządzenia.”
Opiera się na kontroli sprzętowej wbudowanej w zabezpieczenia infrastruktury Google. „Wykorzystujemy możliwości sprzętowe naszych partnerów, takich jak AMD, Intel lub Nvidia, aby ustanowić bardzo silną izolację kryptograficzną i ochronę obciążeń roboczych naszych klientów” — dodaje.
Celem jest zapewnienie, że klienci korzystają ze swoich aplikacji w poufne oparte na sprzęcie środowiska.
Aby zapewnić to bezpieczeństwo, mówi, Google musi upewnić się, że AMD, Intel, Nvidia i inni dostawcy sprzętu robią to, co muszą, aby zapewnić bezpieczeństwo w swoich produktach. Podobnie Google Cloud musi odegrać swoją rolę w zabezpieczeniu swojej infrastruktury chmurowej. „Wszystkie te firmy połączyły siły, aby zaoferować naszym klientom niezwykle użyteczne, skalowalne i wydajne poufne przetwarzanie” — mówi.
Nigdy nie można być zbyt bezpiecznym
Słusznym pytaniem, które nieuchronnie będą sobie zadawać liderzy IT i szefowie ds. bezpieczeństwa, jest to, w jaki sposób poufne przetwarzanie danych wpisuje się w inne inicjatywy, takie jak zero zaufania, bezpieczny w projektowaniu i zasady bezpieczeństwa domyślnego. Porter mówi, że wszystkie takie inicjatywy są tworzone w celu zapewnienia silniejszych zapewnień i gwarancji, gdy przenoszą obciążenia do chmury i przechowują poufne dane do przetworzenia.
Opisuje ona zero trust jako „niezwykle interesującą i potężną technologię”, która zapewnia zespołom ds. bezpieczeństwa IT możliwość walidacji urządzeń końcowych. Biorąc pod uwagę, że punktem końcowym może być urządzenie użytkownika lub serwer zaplecza, dla Porter zero trust, przynajmniej w środowisku chmury publicznej, oferuje podobne rezultaty pod względem bezpieczeństwa IT, co zaufanie wynikające z poufnego przetwarzania.
„To podobna możliwość, ale zupełnie inna implementacja, która w rzeczywistości pasuje do zestawu technologii służących do weryfikacji środowisk informatycznych przed wykonaniem jakichkolwiek działań” – mówi.
Porter uważa również, że zabezpieczenia w fazie projektowania i zabezpieczenia domyślnie są ściśle powiązane z poufnością przetwarzania, w którym technologia zabezpieczeń jest bezpośrednio osadzona w infrastrukturze informatycznej i można nią zarządzać za pośrednictwem panelu sterowania.
„Próbujemy umożliwić globalne przetwarzanie poufne w każdym centrum danych Google” — mówi. „Zaznaczasz pole i uruchamiasz przetwarzanie poufne. To właśnie oznacza dla nas bezpieczne z założenia i bezpieczne domyślnie”.
Biorąc pod uwagę różne techniki bezpieczeństwa IT, które można wdrożyć, zawsze będzie pojawiać się pytanie, ile jest potrzebne do zabezpieczenia firmy. Porter mówi: „Szczerze mówiąc, wierzę, że nigdy nie można mieć wystarczającego bezpieczeństwa, a koncepcją, o której zawsze mówię, jest obrona w głąb. Możesz połączyć te technologie, aby zapewnić głębszą ochronę dla swoich bardzo ważnych aktywów”.
Uważa jednak, że liderzy IT muszą dokładnie rozważyć, w jaki sposób i co muszą zrobić, a także upewnić się, że nie otwierają dostępu i łączności, chyba że jest to konieczne.
Sztuczna inteligencja może pomóc
Porter wierzy sztuczna inteligencja (AI) odgrywa znaczącą rolę w poufnym przetwarzaniu. „AI jest bardzo ważne dla Google i zespołów ds. bezpieczeństwa Google. Jest również ważne dla naszych klientów, CISO i praktyków ds. bezpieczeństwa” — mówi.
„Kiedy wykonujesz operacje na danych za pomocą aplikacji, poufne przetwarzanie wskazuje na fakt, że istnieje wiele technologii stworzonych w celu ochrony prywatności klientów i użytkowników. To technologia chroniąca prywatność pomaga chronić dane i obciążenia podczas użytkowania”
Nelly Porter, Google
Dla Porter i społeczności zajmującej się bezpieczeństwem IT, AI jest bardzo ważnym i użytecznym narzędziem, które umożliwia organizacjom uzyskanie większego wglądu w ogromne ilości danych, które należy przeanalizować, aby zidentyfikować zagrożenia. Biorąc pod uwagę, że ilość gromadzonych danych, które wymagają uwagi ze strony specjalistów ds. bezpieczeństwa IT, rośnie wykładniczo, mówi: „Jestem głęboko przekonana, że AI i agenci AI nam pomogą”.
Porter widzi również rolę dla generatywna sztuczna inteligencja (GenAI) pomagając administratorom IT zrozumieć różne konfiguracje, które muszą wykonać podczas wdrażania obciążeń w GCP. „Muszą wykonać wiele czynności i przeczytać wiele dokumentów, aby dowiedzieć się, jak prawidłowo wdrażać aplikacje i jakie przepisy dotyczące zgodności są potrzebne. Agent GenAI mógłby pomóc”, mówi.
Według Porter używanie GenAI w ten sposób może przyspieszyć wdrożenia z tygodni do minut i usunąć wszystkie niepotrzebne zadania, które administratorzy IT muszą wykonać, aby ustalić, jakie ścieżki obrać podczas wdrażania obciążeń na GCP. Uważa, że GenAI byłoby przydatne w takim przypadku użycia.
Zabezpieczanie GenAI
Istnieje wiele przypadków użycia GenAI poza bezpieczeństwem IT, w pomaganiu administratorom IT we wdrażaniu obciążeń na GCP. Jednak każde użycie GenAI ma implikacje dla bezpieczeństwa.
„Wcześniej chroniliśmy dane oddzielnie od obciążeń, które były oddzielne od plików konfiguracyjnych” — mówi Porter. „W przypadku Gen AI wszystko jest zależne. Masz aplikacje, które są zależne od ton danych, których używasz do trenowania modelu. Masz model AI”.
W GenAI dane konfiguracyjne są wagą używaną do dostrajania modelu. „W przypadku każdego pojedynczego elementu danych, którego używasz – gdy przeprowadzasz wnioskowanie, dostrajanie lub szkolenie – musisz upewnić się, że te dane są w pełni odizolowane i mają możliwości ochrony prywatności” – mówi.
Według Portera i Google poufne przetwarzanie danych jest podejściem, które to umożliwia.