Wywiady dotyczące bezpieczeństwa: podejście Google do poufnych danych komputerowych


Wśród wyścigów zbrojeń, które mają miejsce w chmurze publicznej, jest wyścig skupiony na zapewnieniu najbardziej zaufane środowisko do hostowania aplikacji i danych.

To obszar, na którym bardzo skupia się Nelly Porter z Google. Porter jest dyrektorem ds. zarządzania produktami w Google, a jej obowiązki obejmują poufne przetwarzanie i szyfrowanie dla Google Cloud Platform (GCP). Poufne przetwarzanie to jedna z technik, których GCP używa do zabezpieczania danych.

„Poufne przetwarzanie danych to bardzo interesujący termin, który pochodzi z koncepcji przetwarzania danych” — wyjaśnia Porter. „Kiedy wykonujesz operacje na danych za pomocą aplikacji, poufne przetwarzanie danych wskazuje na fakt, że istnieje wiele technologii stworzonych w celu ochrony prywatności klientów i użytkowników.

„To technologia chroniąca prywatność, która pomaga nam chronić dane i obciążenia podczas ich używania, np. gdy aplikacja wykonuje operacje na tych danych. Oznacza to, że musi je przetworzyć. Musi je umieścić w pamięci i musi uruchomić operacje obliczeniowe na tych danych, wykorzystując sprzęt, taki jak Procesory [central processing units]GPU [graphics processing units] lub TPU [tensor processing units] lub jakiegokolwiek innego urządzenia.”

Opiera się na kontroli sprzętowej wbudowanej w zabezpieczenia infrastruktury Google. „Wykorzystujemy możliwości sprzętowe naszych partnerów, takich jak AMD, Intel lub Nvidia, aby ustanowić bardzo silną izolację kryptograficzną i ochronę obciążeń roboczych naszych klientów” — dodaje.

Celem jest zapewnienie, że klienci korzystają ze swoich aplikacji w poufne oparte na sprzęcie środowiska.

Reklama

Aby zapewnić to bezpieczeństwo, mówi, Google musi upewnić się, że AMD, Intel, Nvidia i inni dostawcy sprzętu robią to, co muszą, aby zapewnić bezpieczeństwo w swoich produktach. Podobnie Google Cloud musi odegrać swoją rolę w zabezpieczeniu swojej infrastruktury chmurowej. „Wszystkie te firmy połączyły siły, aby zaoferować naszym klientom niezwykle użyteczne, skalowalne i wydajne poufne przetwarzanie” — mówi.


Nigdy nie można być zbyt bezpiecznym

Słusznym pytaniem, które nieuchronnie będą sobie zadawać liderzy IT i szefowie ds. bezpieczeństwa, jest to, w jaki sposób poufne przetwarzanie danych wpisuje się w inne inicjatywy, takie jak zero zaufania, bezpieczny w projektowaniu i zasady bezpieczeństwa domyślnego. Porter mówi, że wszystkie takie inicjatywy są tworzone w celu zapewnienia silniejszych zapewnień i gwarancji, gdy przenoszą obciążenia do chmury i przechowują poufne dane do przetworzenia.

Opisuje ona zero trust jako „niezwykle interesującą i potężną technologię”, która zapewnia zespołom ds. bezpieczeństwa IT możliwość walidacji urządzeń końcowych. Biorąc pod uwagę, że punktem końcowym może być urządzenie użytkownika lub serwer zaplecza, dla Porter zero trust, przynajmniej w środowisku chmury publicznej, oferuje podobne rezultaty pod względem bezpieczeństwa IT, co zaufanie wynikające z poufnego przetwarzania.

„To podobna możliwość, ale zupełnie inna implementacja, która w rzeczywistości pasuje do zestawu technologii służących do weryfikacji środowisk informatycznych przed wykonaniem jakichkolwiek działań” – mówi.

Porter uważa również, że zabezpieczenia w fazie projektowania i zabezpieczenia domyślnie są ściśle powiązane z poufnością przetwarzania, w którym technologia zabezpieczeń jest bezpośrednio osadzona w infrastrukturze informatycznej i można nią zarządzać za pośrednictwem panelu sterowania.

„Próbujemy umożliwić globalne przetwarzanie poufne w każdym centrum danych Google” — mówi. „Zaznaczasz pole i uruchamiasz przetwarzanie poufne. To właśnie oznacza dla nas bezpieczne z założenia i bezpieczne domyślnie”.

Biorąc pod uwagę różne techniki bezpieczeństwa IT, które można wdrożyć, zawsze będzie pojawiać się pytanie, ile jest potrzebne do zabezpieczenia firmy. Porter mówi: „Szczerze mówiąc, wierzę, że nigdy nie można mieć wystarczającego bezpieczeństwa, a koncepcją, o której zawsze mówię, jest obrona w głąb. Możesz połączyć te technologie, aby zapewnić głębszą ochronę dla swoich bardzo ważnych aktywów”.

Uważa jednak, że liderzy IT muszą dokładnie rozważyć, w jaki sposób i co muszą zrobić, a także upewnić się, że nie otwierają dostępu i łączności, chyba że jest to konieczne.

Sztuczna inteligencja może pomóc

Porter wierzy sztuczna inteligencja (AI) odgrywa znaczącą rolę w poufnym przetwarzaniu. „AI jest bardzo ważne dla Google i zespołów ds. bezpieczeństwa Google. Jest również ważne dla naszych klientów, CISO i praktyków ds. bezpieczeństwa” — mówi.

„Kiedy wykonujesz operacje na danych za pomocą aplikacji, poufne przetwarzanie wskazuje na fakt, że istnieje wiele technologii stworzonych w celu ochrony prywatności klientów i użytkowników. To technologia chroniąca prywatność pomaga chronić dane i obciążenia podczas użytkowania”

Nelly Porter, Google

Dla Porter i społeczności zajmującej się bezpieczeństwem IT, AI jest bardzo ważnym i użytecznym narzędziem, które umożliwia organizacjom uzyskanie większego wglądu w ogromne ilości danych, które należy przeanalizować, aby zidentyfikować zagrożenia. Biorąc pod uwagę, że ilość gromadzonych danych, które wymagają uwagi ze strony specjalistów ds. bezpieczeństwa IT, rośnie wykładniczo, mówi: „Jestem głęboko przekonana, że ​​AI i agenci AI nam pomogą”.

Porter widzi również rolę dla generatywna sztuczna inteligencja (GenAI) pomagając administratorom IT zrozumieć różne konfiguracje, które muszą wykonać podczas wdrażania obciążeń w GCP. „Muszą wykonać wiele czynności i przeczytać wiele dokumentów, aby dowiedzieć się, jak prawidłowo wdrażać aplikacje i jakie przepisy dotyczące zgodności są potrzebne. Agent GenAI mógłby pomóc”, mówi.

Według Porter używanie GenAI w ten sposób może przyspieszyć wdrożenia z tygodni do minut i usunąć wszystkie niepotrzebne zadania, które administratorzy IT muszą wykonać, aby ustalić, jakie ścieżki obrać podczas wdrażania obciążeń na GCP. Uważa, że ​​GenAI byłoby przydatne w takim przypadku użycia.

Zabezpieczanie GenAI

Istnieje wiele przypadków użycia GenAI poza bezpieczeństwem IT, w pomaganiu administratorom IT we wdrażaniu obciążeń na GCP. Jednak każde użycie GenAI ma implikacje dla bezpieczeństwa.

„Wcześniej chroniliśmy dane oddzielnie od obciążeń, które były oddzielne od plików konfiguracyjnych” — mówi Porter. „W przypadku Gen AI wszystko jest zależne. Masz aplikacje, które są zależne od ton danych, których używasz do trenowania modelu. Masz model AI”.

W GenAI dane konfiguracyjne są wagą używaną do dostrajania modelu. „W przypadku każdego pojedynczego elementu danych, którego używasz – gdy przeprowadzasz wnioskowanie, dostrajanie lub szkolenie – musisz upewnić się, że te dane są w pełni odizolowane i mają możliwości ochrony prywatności” – mówi.

Według Portera i Google poufne przetwarzanie danych jest podejściem, które to umożliwia.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

iPhone 16 będzie montowany w Brazylii, a także w Chinach i Indiach

Przedsprzedaż iPhone'a 16 już się rozpoczęła, a telefony trafią do sklepów w piątek 20 września. Jak wcześniej informowaliśmyApple będzie składać nowe iPhone'y w...

Nienazwana „Teen” Agathy All Along jest wierną kopią Wiccan Marvela

Czym jest czarownica bez jej mrocznych magicznych sekretów? Marvel's Agatha przez cały czas miniserial ma jeden z przodu i na środku. Główny...

Jak sprawdzić, czy zamówiony w przedsprzedaży iPhone 16 został wysłany

Pierwszy Zamówienia przedpremierowe na iPhone’a 16 i iPhone’a 16 Pro rozpoczęto wysyłkę do kupujących. Jak zwykle, nie oznacza to, że Twój iPhone 16...
Advertisment