Plany Google dotyczące sztucznej inteligencji obejmują teraz cyberbezpieczeństwo


Ponieważ ludzie próbują znaleźć więcej zastosowań generatywnej sztucznej inteligencji, które w mniejszym stopniu ograniczają się do robienia fałszywych zdjęć, a zamiast tego są rzeczywiście przydatne, Google planuje wskazać sztuczną inteligencję na cyberbezpieczeństwo i ułatwić czytanie raportów o zagrożeniach.

W poście na bloguGoogle pisze, że jego nowy produkt dotyczący cyberbezpieczeństwa, Google Threat Intelligence, połączy pracę jednostki ds. cyberbezpieczeństwa Mandiant i analizy zagrożeń VirusTotal z modelem sztucznej inteligencji Gemini.

Nowy produkt wykorzystuje model wielojęzykowy Gemini 1.5 Pro, co według Google skraca czas potrzebny do przeprowadzenia inżynierii wstecznej ataków złośliwego oprogramowania. Firma twierdzi, że analiza kodu Gemini 1.5 Pro, wydanego w lutym, zajęła zaledwie 34 sekundy wirusa WannaCry — ataku oprogramowania typu ransomware w 2017 r., który sparaliżował szpitale, firmy i inne organizacje na całym świecie — i zidentyfikował wyłącznik awaryjny. To imponujące, ale nie zaskakujące, biorąc pod uwagę talent LLM do czytania i pisania kodu.

Jednak innym możliwym zastosowaniem Gemini w przestrzeni zagrożeń jest podsumowywanie raportów o zagrożeniach w języku naturalnym w ramach modułu Threat Intelligence, dzięki czemu firmy mogą ocenić, jak potencjalne ataki mogą na nie wpłynąć — czyli innymi słowy, aby firmy nie reagowały nadmiernie lub niedostatecznie na zagrożenia.

Google twierdzi, że moduł Threat Intelligence dysponuje także rozległą siecią informacji umożliwiającą monitorowanie potencjalnych zagrożeń, zanim nastąpi atak. Pozwala użytkownikom zobaczyć szerszą perspektywę krajobrazu cyberbezpieczeństwa i ustalić priorytety, na czym należy się skupić. Mandiant zapewnia ekspertów, którzy monitorują potencjalnie szkodliwe grupy, oraz konsultantów, którzy współpracują z firmami w celu blokowania ataków. Społeczność VirusTotal również regularnie publikuje wskaźniki zagrożeń.

Firma planuje także wykorzystać ekspertów Mandiant do oceny luk w zabezpieczeniach projektów AI. Poprzez Bezpieczne ramy sztucznej inteligencji GoogleMandiant przetestuje mechanizmy obronne modeli sztucznej inteligencji i pomoże w wysiłkach na rzecz połączenia czerwonych drużyn. Chociaż modele sztucznej inteligencji mogą pomóc podsumować zagrożenia i przeprowadzić inżynierię wsteczną ataków złośliwego oprogramowania, same modele mogą czasami stać się ofiarą złośliwych aktorów. Czasem takie groźby obejmują „zatrucie danych”, co dodaje zły kod do skrobania modeli AI danych, więc modele nie mogą odpowiadać na określone monity.

Reklama

Google nie jest oczywiście jedyną firmą łączącą sztuczną inteligencję z cyberbezpieczeństwem. Microsoft uruchomił Copilot for Security , oparty na GPT-4 i modelu sztucznej inteligencji firmy Microsoft przeznaczonym do cyberbezpieczeństwa, i umożliwia specjalistom ds. cyberbezpieczeństwa zadawanie pytań na temat zagrożeń. Czas pokaże, czy którykolwiek z nich jest rzeczywiście dobrym przypadkiem użycia generatywnej sztucznej inteligencji, ale miło jest widzieć, że wykorzystuje się go do czegoś innego zdjęcia zadziornego papieża.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

T-Mobile Starlink Beta za darmo do lipca (i nie tylko dla klientów T-Mobile)

T-Mobile przekazał wiadomości podczas Super Bowl w tym roku, kiedy ogłosił szczegóły dotyczące dostępności i cen dla swojej usługi T-Mobile Starlink. Okazuje się,...

Pokémon Go Karrablast i Shelmet Community Day Guide

Pokémon Go ma Karablast i Shelmet Community Day wydarzenie na Niedziela, 9 lutego, od 14.15 w czasie lokalnym.Zgodnie z oczekiwaniami z wydarzeniem...

Apple działa teraz nowa promocja handlowa: do 50 USD wyżej dla komputerów Macs

Apple właśnie wprowadziło nową promocję wymiany nowych zakupów komputerów Mac, teraz do 2 kwietnia. Wartości handlowe dla wszystkich modeli są teraz nieco wyższe,...
Advertisment