W obliczu rosnących obaw, że sztuczna inteligencja może ułatwić rozpowszechnianie dezinformacji, Microsoft oferuje swoje usługi, w tym cyfrowy znak wodny identyfikujący zawartość sztucznej inteligencji, aby pomóc w rozprawieniu się z deepfakes i zwiększyć cyberbezpieczeństwo przed kilkoma światowymi wyborami.
W post na blogu którego współautorami są prezes Microsoftu Brad Smith i wiceprezes korporacyjny Microsoft, Technology for Fundamental Rights Teresa Hutson, firma podała, że zaoferuje kilka usług mających na celu ochronę uczciwości wyborów, w tym uruchomienie nowego narzędzia wykorzystującego system znaków wodnych Content Credentials opracowany przez Koalicja na rzecz autentyczności pochodzenia treści (C2PA). Celem usługi jest pomoc kandydatom w ochronie wykorzystania ich treści i podobieństwa oraz zapobieganie udostępnianiu fałszywych informacji.
Narzędzie to, nazywane poświadczeniami treści jako usługa, umożliwia użytkownikom, np. kampaniom wyborczym, dołączanie informacji do metadanych obrazu lub filmu. Informacje mogą obejmować pochodzenie, kiedy, jak, kiedy i kto stworzył treść. Powie również, czy w tworzenie treści zaangażowana była sztuczna inteligencja. Informacje te stają się trwałą częścią obrazu lub filmu. C2PA, grupa firm założona w 2019 r., która pracuje nad opracowaniem standardów technicznych potwierdzających pochodzenie treści, uruchomiła w tym roku usługę Content Credentials. Adobe, członek C2PA, udostępnił symbol poświadczeń treści zostaną dołączone do zdjęć i filmów w październiku.
Poświadczenia treści jako usługa zostaną uruchomione wiosną przyszłego roku i w pierwszej kolejności zostaną udostępnione na potrzeby kampanii politycznych. Zespół Microsoftu zajmujący się platformą Azure zbudował to narzędzie. Krawędź skontaktował się z firmą Microsoft, aby uzyskać więcej informacji na temat nowej usługi.
„Biorąc pod uwagę charakter zagrożeń związanych z technologią, ważne jest, aby rządy, firmy technologiczne, społeczność biznesowa i społeczeństwo obywatelskie przyjęły nowe inicjatywy, w tym opierając się na wzajemnej pracy” – stwierdzili Smith i Huston.
Microsoft poinformował, że utworzył zespół, który będzie udzielał porad i wsparcia kampaniom dotyczącym wzmacniania zabezpieczeń cybernetycznych i pracy ze sztuczną inteligencją. Firma utworzy także tak zwane centrum komunikacji wyborczej, w którym rządy na całym świecie będą mogły uzyskać dostęp do zespołów ds. bezpieczeństwa Microsoftu przed wyborami.
Smith i Hutson powiedzieli, że Microsoft poprze tę wersję Chroń wybory przed zwodniczą ustawą o sztucznej inteligencji przedstawili senator Amy Klobuchar (D-MN), Chris Coons (D-DE), Josh Hawley (R-MO) i Susan Collins (R-ME). Projekt ustawy ma na celu zakazanie wykorzystywania sztucznej inteligencji do tworzenia „istotnie zwodniczych treści fałszywie przedstawiających kandydatów federalnych”.
„Będziemy używać naszego głosu jako firmy, aby wspierać zmiany legislacyjne i prawne, które zwiększą ochronę kampanii i procesów wyborczych przed deepfakes i innymi szkodliwymi zastosowaniami nowych technologii” – napisali Smith i Huston.
Microsoft planuje także współpracę z takimi grupami, jak Krajowe Stowarzyszenie Państwowych Dyrektorów ds. Wyborów, Reporterzy bez Granic i hiszpańska agencja informacyjna EFE, aby udostępniać renomowane witryny zawierające informacje o wyborach w serwisie Bing. Firma podała, że stanowi to przedłużenie dotychczasowej współpracy z Newsguard i Claim Review. Ma nadzieję regularnie publikować raporty na temat wpływów zagranicznych w kluczowych wyborach. Wydał już tzw pierwszy raport analizujący zagrożenia od obcych, złych wpływów.
Już niektóre kampanie polityczne były krytykowane za rozpowszechnianie zmanipulowanych zdjęć i filmów, chociaż nie wszystkie z nich zostały utworzone przy użyciu sztucznej inteligencji. Bloomberga doniosło, że w ramach kampanii Rona DeSantisa opublikowano fałszywe zdjęcia jego rywala Donalda Trumpa pozującego z Anthonym Faucim w czerwcu oraz że Komitet Narodowy Republikanów promował sfałszowane wideo przedstawiające apokaliptyczne Stany Zjednoczone obwiniające administrację Bidena. Obydwa działania były stosunkowo łagodne, ale przytoczono je jako przykłady tego, jak technologia stwarza możliwości szerzenia dezinformacji.
Dezinformacja i głębokie fałszerstwa zawsze stanowią problem we współczesnych wyborach, ale łatwość wykorzystania generatywnych narzędzi sztucznej inteligencji do tworzenia oszukańczych treści budzi obawy, że zostaną one wykorzystane do wprowadzenia wyborców w błąd. Federalna Komisja Wyborcza Stanów Zjednoczonych (FEC) tak dyskusja, czy zakaże, czy ograniczy sztuczną inteligencję w kampaniach politycznych. Kongresmanka Yvette Clark (D-NY) również złożyła w Izbie projekt ustawy zmusić kandydatów do ujawnienia użycia sztucznej inteligencji.
Istnieją jednak obawy, że znaki wodne, takie jak dane uwierzytelniające treści, nie wystarczy, aby powstrzymać dezinformację wprost. Znak wodny jest główną funkcją w Zarządzenie wykonawcze administracji Bidena wokół AI.
Microsoft nie jest jedyną firmą Big Tech, która ma nadzieję ograniczyć niewłaściwe wykorzystanie sztucznej inteligencji podczas wyborów. Meta wymaga teraz reklamodawców politycznych do ujawniania treści generowanych przez sztuczną inteligencję po tym, jak zakazał im korzystania z narzędzi reklamowych generatywnych sztucznej inteligencji.