Byli pracownicy OpenAI twierdzą, że ochrona sygnalistów w zakresie bezpieczeństwa sztucznej inteligencji nie wystarczy


Kilku byłych pracowników OpenAI ostrzegł w liście otwartym że zaawansowane firmy zajmujące się sztuczną inteligencją, takie jak OpenAI, tłumią krytykę i nadzór, zwłaszcza że w ciągu ostatnich kilku miesięcy wzrosły obawy dotyczące bezpieczeństwa sztucznej inteligencji.

List otwarty, podpisany przez 13 byłych pracowników OpenAI (z których sześciu zdecydowało się zachować anonimowość) i poparty przez „Ojca Chrzestnego AI” Geoffrey Hinton, były pracownik Google, stwierdza, że ​​w przypadku braku skutecznego nadzoru rządowego firmy zajmujące się sztuczną inteligencją powinny zobowiązać się do przestrzegania zasad otwartej krytyki. Zasady te obejmują unikanie tworzenia i egzekwowania klauzul o niedyskredytowaniu, ułatwianie „weryfikowalnego” anonimowego procesu zgłaszania problemów, umożliwianie obecnym i byłym pracownikom zgłaszania obaw opinii publicznej oraz zakaz podejmowania działań odwetowych wobec sygnalistów.

Sygnatariusze listu twierdzą, że obecna ochrona sygnalistów „jest niewystarczająca”, ponieważ koncentruje się ona na nielegalnej działalności, a nie na obawach, które ich zdaniem są w większości nieuregulowane. The Departament Stanów Pracy pracownicy zgłaszający naruszenia płac, dyskryminację, bezpieczeństwo, oszustwa lub wstrzymywanie urlopu są chronieni przepisami dotyczącymi ochrony sygnalistów, co oznacza, że ​​pracodawcy nie mogą zwalniać, zwalniać, zmniejszać godzin pracy ani degradować sygnalistów. „Niektórzy z nas zasadnie obawiają się różnych form odwetu, biorąc pod uwagę historię takich przypadków w branży. Nie jesteśmy pierwszymi, którzy spotykają się z tymi kwestiami lub o nich mówią” – czytamy w liście.

Niedawno kilku badaczy OpenAI zrezygnowało ze stanowiska po tym, jak firma rozwiązała zespół „Superalignment”, który skupiał się na zajmowaniu się długoterminowymi zagrożeniami związanymi ze sztuczną inteligencją, oraz odejście współzałożyciela Ilji Sutskevera, który opowiadał się za bezpieczeństwem w firmie. Jeden z byłych badaczy, – powiedział Jan Leike że „kultura i procesy bezpieczeństwa zeszły na dalszy plan w stosunku do błyszczących produktów” w OpenAI.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Dom Smoka, sezon 2, poprawia makabryczne zabójstwa opisane w książce

Dom Smoka zawsze mówił o tym, jak najmniejsze decyzje mogą mieć nieprzewidziane konsekwencje, ale rzadko ten temat był tak jasny, jak...

iOS 18: 18 najważniejszych funkcji i zmian dla iPhone’a [Video]

W tym wstępnym, praktycznym przewodniku omawiam 18 moich ulubionych nowych zmian i funkcji z pierwszej wersji beta systemu iOS 18 dla iPhone'a. ...

Przeglądarka Chrome na Androidzie może czytać strony internetowe na głos z poziomu aplikacji

Google wprowadza nową opcję o nazwie „Posłuchaj tej strony”, która umożliwia odczytanie strony internetowej na głos w przeglądarce Chrome na Androidzie. Ta...
Advertisment