Kilku byłych pracowników OpenAI ostrzegł w liście otwartym że zaawansowane firmy zajmujące się sztuczną inteligencją, takie jak OpenAI, tłumią krytykę i nadzór, zwłaszcza że w ciągu ostatnich kilku miesięcy wzrosły obawy dotyczące bezpieczeństwa sztucznej inteligencji.
List otwarty, podpisany przez 13 byłych pracowników OpenAI (z których sześciu zdecydowało się zachować anonimowość) i poparty przez „Ojca Chrzestnego AI” Geoffrey Hinton, były pracownik Google, stwierdza, że w przypadku braku skutecznego nadzoru rządowego firmy zajmujące się sztuczną inteligencją powinny zobowiązać się do przestrzegania zasad otwartej krytyki. Zasady te obejmują unikanie tworzenia i egzekwowania klauzul o niedyskredytowaniu, ułatwianie „weryfikowalnego” anonimowego procesu zgłaszania problemów, umożliwianie obecnym i byłym pracownikom zgłaszania obaw opinii publicznej oraz zakaz podejmowania działań odwetowych wobec sygnalistów.
Sygnatariusze listu twierdzą, że obecna ochrona sygnalistów „jest niewystarczająca”, ponieważ koncentruje się ona na nielegalnej działalności, a nie na obawach, które ich zdaniem są w większości nieuregulowane. The Departament Stanów Pracy pracownicy zgłaszający naruszenia płac, dyskryminację, bezpieczeństwo, oszustwa lub wstrzymywanie urlopu są chronieni przepisami dotyczącymi ochrony sygnalistów, co oznacza, że pracodawcy nie mogą zwalniać, zwalniać, zmniejszać godzin pracy ani degradować sygnalistów. „Niektórzy z nas zasadnie obawiają się różnych form odwetu, biorąc pod uwagę historię takich przypadków w branży. Nie jesteśmy pierwszymi, którzy spotykają się z tymi kwestiami lub o nich mówią” – czytamy w liście.
Niedawno kilku badaczy OpenAI zrezygnowało ze stanowiska po tym, jak firma rozwiązała zespół „Superalignment”, który skupiał się na zajmowaniu się długoterminowymi zagrożeniami związanymi ze sztuczną inteligencją, oraz odejście współzałożyciela Ilji Sutskevera, który opowiadał się za bezpieczeństwem w firmie. Jeden z byłych badaczy, – powiedział Jan Leike że „kultura i procesy bezpieczeństwa zeszły na dalszy plan w stosunku do błyszczących produktów” w OpenAI.