Microsoft publikuje inauguracyjny raport dotyczący przejrzystości sztucznej inteligencji


W swoim Odpowiedzialny raport dotyczący przejrzystości sztucznej inteligencji, która obejmuje głównie rok 2023, Microsoft zachwala swoje osiągnięcia w zakresie bezpiecznego wdrażania produktów AI. Coroczny raport przejrzystości AI to jedno z zobowiązań, jakie podjęła firma po podpisaniu dobrowolnego porozumienia z Białym Domem w lipcu ubiegłego roku. Microsoft i inne firmy obiecały ustanowienie odpowiedzialnych systemów sztucznej inteligencji i zaangażowanie się w bezpieczeństwo.

Microsoft twierdzi w raporcie, że w zeszłym roku stworzył 30 odpowiedzialnych narzędzi AI, powiększył swój odpowiedzialny zespół AI i wymagał od zespołów tworzących generatywne aplikacje AI pomiaru i mapowania ryzyka w całym cyklu rozwoju. Firma zauważa, że ​​tak dodano dane uwierzytelniające dotyczące treści do swoich platform generowania obrazów, które umieszczają znak wodny na zdjęciu, oznaczając je jako wykonane przez model AI.

Firma twierdzi, że zapewniła klientom platformy Azure AI dostęp do narzędzi wykrywających problematyczne treści, takie jak mowa nienawiści, treści o charakterze seksualnym i samookaleczenia, a także narzędzia do oceny zagrożeń bezpieczeństwa. Obejmuje to nowe metody wykrywania jailbreak, które były rozszerzony w marcu w tym roku obejmować pośrednie wstrzykiwanie monitów, w przypadku których złośliwe instrukcje stanowią część danych przetwarzanych przez model sztucznej inteligencji.

Rozbudowuje także swoją drużyna czerwonych wysiłki, obejmujące zarówno wewnętrzne zespoły Red Team, które celowo próbują ominąć funkcje bezpieczeństwa w swoich modelach AI, jak i aplikacje Red Team, aby umożliwić testowanie przez strony trzecie przed wypuszczeniem nowych modeli.

Jednakże jednostki zrzeszone w czerwonych drużynach mają przed sobą mnóstwo pracy. Wdrożenia sztucznej inteligencji firmy nie były wolne od kontrowersji.

Natasha Crampton, dyrektor odpowiedzialna za sztuczną inteligencję w Microsoft, mówi w e-mailu wysłanym na adres Krawędź że firma rozumie, że sztuczna inteligencja wciąż jest w toku, podobnie jak odpowiedzialna sztuczna inteligencja.

Reklama

„Odpowiedzialna sztuczna inteligencja nie ma linii mety, więc nigdy nie będziemy rozważać naszej pracy w ramach wykonanych dobrowolnych zobowiązań w zakresie sztucznej inteligencji. Jednak od czasu ich podpisania poczyniliśmy znaczny postęp i nie możemy się doczekać, aby w tym roku wykorzystać naszą dynamikę” – mówi Crampton.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Google TV otrzyma funkcję „znajdź mojego pilota”.

W najnowszej aktualizacji Androida dla Google TV dodano przydatny dodatek, który powinien ułatwić odnalezienie zaginionych pilotów. Władze Androida informuje, że wersję beta...

Simply NUC przedstawia serwery ExtremeEDGE z obsługą BMC, rozpoczynając rewolucję w przetwarzaniu brzegowym

Simply NUC, wiodący na świecie dostawca niestandardowych rozwiązań komputerowych, z dumą ogłosił wprowadzenie na rynek swojego najbardziej ambitnego produktu w dotychczasowej historii: serwerów...

Rząd Wielkiej Brytanii ogłasza dotacje w wysokości 8,5 miliona funtów na badania nad bezpieczeństwem sztucznej inteligencji

Sekretarz ds. technologii cyfrowych Michelle Donelan ogłosiła, że ​​podczas drugiego dnia szczytu AI w Seulu rząd Wielkiej Brytanii przeznaczy do 8,5 miliona funtów...
Advertisment