Plany Google dotyczące sztucznej inteligencji obejmują teraz cyberbezpieczeństwo


Ponieważ ludzie próbują znaleźć więcej zastosowań generatywnej sztucznej inteligencji, które w mniejszym stopniu ograniczają się do robienia fałszywych zdjęć, a zamiast tego są rzeczywiście przydatne, Google planuje wskazać sztuczną inteligencję na cyberbezpieczeństwo i ułatwić czytanie raportów o zagrożeniach.

W poście na bloguGoogle pisze, że jego nowy produkt dotyczący cyberbezpieczeństwa, Google Threat Intelligence, połączy pracę jednostki ds. cyberbezpieczeństwa Mandiant i analizy zagrożeń VirusTotal z modelem sztucznej inteligencji Gemini.

Nowy produkt wykorzystuje model wielojęzykowy Gemini 1.5 Pro, co według Google skraca czas potrzebny do przeprowadzenia inżynierii wstecznej ataków złośliwego oprogramowania. Firma twierdzi, że analiza kodu Gemini 1.5 Pro, wydanego w lutym, zajęła zaledwie 34 sekundy wirusa WannaCry — ataku oprogramowania typu ransomware w 2017 r., który sparaliżował szpitale, firmy i inne organizacje na całym świecie — i zidentyfikował wyłącznik awaryjny. To imponujące, ale nie zaskakujące, biorąc pod uwagę talent LLM do czytania i pisania kodu.

Jednak innym możliwym zastosowaniem Gemini w przestrzeni zagrożeń jest podsumowywanie raportów o zagrożeniach w języku naturalnym w ramach modułu Threat Intelligence, dzięki czemu firmy mogą ocenić, jak potencjalne ataki mogą na nie wpłynąć — czyli innymi słowy, aby firmy nie reagowały nadmiernie lub niedostatecznie na zagrożenia.

Google twierdzi, że moduł Threat Intelligence dysponuje także rozległą siecią informacji umożliwiającą monitorowanie potencjalnych zagrożeń, zanim nastąpi atak. Pozwala użytkownikom zobaczyć szerszą perspektywę krajobrazu cyberbezpieczeństwa i ustalić priorytety, na czym należy się skupić. Mandiant zapewnia ekspertów, którzy monitorują potencjalnie szkodliwe grupy, oraz konsultantów, którzy współpracują z firmami w celu blokowania ataków. Społeczność VirusTotal również regularnie publikuje wskaźniki zagrożeń.

Firma planuje także wykorzystać ekspertów Mandiant do oceny luk w zabezpieczeniach projektów AI. Poprzez Bezpieczne ramy sztucznej inteligencji GoogleMandiant przetestuje mechanizmy obronne modeli sztucznej inteligencji i pomoże w wysiłkach na rzecz połączenia czerwonych drużyn. Chociaż modele sztucznej inteligencji mogą pomóc podsumować zagrożenia i przeprowadzić inżynierię wsteczną ataków złośliwego oprogramowania, same modele mogą czasami stać się ofiarą złośliwych aktorów. Czasem takie groźby obejmują „zatrucie danych”, co dodaje zły kod do skrobania modeli AI danych, więc modele nie mogą odpowiadać na określone monity.

Reklama

Google nie jest oczywiście jedyną firmą łączącą sztuczną inteligencję z cyberbezpieczeństwem. Microsoft uruchomił Copilot for Security , oparty na GPT-4 i modelu sztucznej inteligencji firmy Microsoft przeznaczonym do cyberbezpieczeństwa, i umożliwia specjalistom ds. cyberbezpieczeństwa zadawanie pytań na temat zagrożeń. Czas pokaże, czy którykolwiek z nich jest rzeczywiście dobrym przypadkiem użycia generatywnej sztucznej inteligencji, ale miło jest widzieć, że wykorzystuje się go do czegoś innego zdjęcia zadziornego papieża.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

O której godzinie ukaże się Hellblade 2?

Saga Senuy: Hellblade 2 kontynuuje podróż Senuy, udając się na mityczną wyspę Islandię. Po wydarzeniach z Ofiara Senuy: Piekielne OstrzeSenua...

Przewodnik po Dniu Społeczności Pokémon Go Bounsweet

PokemonGo organizuje wydarzenie z okazji Dnia Społeczności Bounsweet Niedziela, 19 maja, od 14:00 do 17:00 czasu lokalnego. Zgodnie z oczekiwaniami w...

Porzucenie iFixit ujawnia dużą zmianę w możliwości naprawy iPada Pro M4

Zrzut ekranu Dzięki do rozbiórek I badania trwałości (zginania)., dowiadujemy się wiele o konstrukcji nowego, ultracienkiego iPada Pro. Teraz ludzie z iFixit to...
Advertisment