W maju 2024 r. około 200 pracowników Google DeepMind (stanowiących około 5 procent działu) podpisało list, w którym wezwali firmę do zakończenia umów z organizacjami wojskowymi, wyrażając obawy, że jej technologia sztucznej inteligencji jest wykorzystywana w działaniach wojennych, Czas magazyn podał.
W liście stwierdzono, że obawy pracowników nie dotyczą „geopolityki żadnego konkretnego konfliktu”, ale zawiera on odnośnik do Czasraportowanie w sprawie kontraktu obronnego Google z izraelskim wojskiem, znanego jako Projekt Nimbus. W liście wskazano również na doniesienia, że izraelskie wojsko używa AI do masowej inwigilacji i wybierania celów w swojej kampanii bombardowań w Strefie Gazy, a izraelskie firmy zbrojeniowe zostały zobowiązane przez rząd do zakupu usług w chmurze od Google i Amazon.
Wykorzystanie AI w wojnie rozprzestrzeniło się szybko, zmuszając niektórych technologów, którzy budują powiązane systemy, do zabrania głosu. Ale Google złożyło również konkretne zobowiązanie: kiedy w 2014 r. przejęło DeepMind, liderzy laboratorium zażądali, aby ich technologia AI nigdy nie była wykorzystywana do celów wojskowych lub inwigilacyjnych.
„Jakiekolwiek zaangażowanie w produkcję wojskową i broni wpływa na naszą pozycję lidera w dziedzinie etycznej i odpowiedzialnej sztucznej inteligencji oraz jest sprzeczne z naszą misją i przyjętymi zasadami sztucznej inteligencji” – czytamy w liście krążącym wewnątrz Google DeepMind.
Jak Czas Jak donoszą źródła, w liście pracownicy DeepMind wzywają kierownictwo firmy do zbadania zarzutów, jakoby usługi w chmurze Google były wykorzystywane przez armię i producentów broni, do odcięcia dostępu armii do technologii DeepMind oraz do powołania nowego organu zarządzającego, który zapobiegnie przyszłemu wykorzystaniu sztucznej inteligencji przez klientów z sektora wojskowego.
Czas informuje, że pomimo obaw pracowników i apeli o podjęcie działań, do tej pory nie zaobserwowano „żadnej znaczącej odpowiedzi” ze strony Google.