Meta planuje zablokować „katastroficzne” modele AI – ale przyznaje, że może nie być w stanie


A Meta Dokument polityczny opisuje obawy firmy, że może przypadkowo rozwinąć Model AI co doprowadziłoby do „katastrofalnych wyników”. Opisuje swoje plany zapobiegania wydaniu takich modeli, ale przyznaje, że może nie być w stanie tego zrobić.

Wśród możliwości, większość obaw to system AI, który mógłby przełamać bezpieczeństwo nawet najlepiej chronionej sieci komputerowej korporacyjnej lub rządowej bez pomocy ludzkiej…

Techcrunch zauważył dokument zasad z niewinnie brzmiącym tytułem Frontier AI Framework.

Dokument, który Meta nazywa swoje ramy AI Frontier, identyfikuje dwa rodzaje systemów AI, które firma uważa za zbyt ryzykowne: systemy „wysokiego ryzyka” i „krytycznego ryzyka”.

Jak je definiuje meta, zarówno systemy „wysokiego ryzyka”, jak i „krytycznego ryzyka” są w stanie pomóc w atakach cyberbezpieczeństwa, chemicznych i biologicznych, różnica polega na tym, że systemy „krytycznego ryzyka” mogą spowodować „katastrofalny wynik [that] nie można złagodzić [a] Proponowany kontekst wdrażania. ” Natomiast systemy wysokiego ryzyka mogą ułatwić atak, ale nie tak niezawodnie lub niezawodnie jak krytyczny system ryzyka.

Firma wyjaśnia swoją definicję „katastrofalnego” wyniku:

Katastroficzne wyniki to wyniki, które miałyby na dużą skalę, niszczycielską i potencjalnie nieodwracalne szkodliwe skutki na ludzkość, które można by zrealizować jako bezpośredni wynik dostępu do dostępu do [our AI models].

Jednym z podanych przykładów jest „zautomatyzowany kompromis kompromisowy środowiska korporacyjnego chronionego w najlepszej praktyce”. Innymi słowy, sztuczna inteligencja, która może włamać się do dowolnej sieci komputerowej bez konieczności pomocy ludzi.

Reklama

Inni to:

  • Zautomatyzowane odkrycie i wykorzystanie luk w cieniu zerowym
  • W pełni zautomatyzowane oszustwa przeciwko osobom i firmom, powodując powszechną szkodę
  • Rozwój i rozprzestrzenianie „broni biologicznej o wysokim wpływie”.

Firma twierdzi, że po zidentyfikowaniu ryzyka krytycznego natychmiast zaprzestanie pracy nad modelem i będzie dążyć do tego, aby nie można go było zwolnić.

Przyznaje, że ograniczenie może nie być możliwe

Dokument Meta szczerze przyznaje, że najlepsze, co może zrobić w tych okolicznościach, to zrobić wszystko, aby model nie został zwolniony, ale jego środki mogą nie być wystarczające (kursywą są naszym naciskiem):

Dostęp jest ściśle ograniczony do niewielkiej liczby ekspertów, a także zabezpieczenia bezpieczeństwa, aby zapobiec hakowaniu lub exfiltracji o ile jest to technicznie wykonalne i wykonalne w handlu.

Możesz Przeczytaj pełny dokument zasad tutaj.

Zdjęcie przez Cash Macanaya NA Unsplash

FTC: Używamy dochodów z automatycznych linków partnerskich. Więcej.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Elon Musk’s rapid unscheduled disassembly of the US government

Almost 250 years after the Declaration of Independence, America has gotten herself a new king. His name is Elon Musk.“Wait a minute,” you...

Pięć powodów, dla których niektórzy ludzie noszą zegarek jabłkowy na kostce

Rosnąca liczba ludzi nosi Apple Watch Według nowego raportu na kostkach, z cytowanymi pięcioma różnymi powodami. Najbardziej przyziemne z nich to ludzie z małymi...

Złącza zasilające RTX 5090 NVIDIA topią się

Ach cholera, proszę bardzo. Dwóch właścicieli NVIDIA NVIDIA RTX 5090 GPU, zgłosiło stopione złącza zasilania i uszkodzenia swoich zasilaczy. Obrazy wyglądają identycznie jak...
Advertisment