Wielu znanych badaczy sztucznej inteligencji — i Elon Musk — ma podpisał list otwarty wzywa laboratoria sztucznej inteligencji na całym świecie do wstrzymania rozwoju wielkoskalowych systemów sztucznej inteligencji, powołując się na obawy dotyczące „głębokich zagrożeń dla społeczeństwa i ludzkości”, które, jak twierdzą, stwarza to oprogramowanie.
W liście, opublikowanym przez organizację non-profit Future of Life Institute, zauważono, że laboratoria sztucznej inteligencji są obecnie uwikłane w „niekontrolowany wyścig” w celu opracowania i wdrożenia systemów uczenia maszynowego, „których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidzieć lub niezawodnie kontrolować”.
„Wzywamy wszystkie laboratoria sztucznej inteligencji do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4”.
„Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4” – czytamy w liście. „Ta przerwa powinna być publiczna i weryfikowalna oraz obejmować wszystkich kluczowych aktorów. Jeśli taka przerwa nie może zostać szybko uchwalona, rządy powinny wkroczyć i wprowadzić moratorium”.
Wśród sygnatariuszy są autor Yuval Noah Harari, współzałożyciel Apple Steve Wozniak, współzałożyciel Skype’a Jaan Tallinn, polityk Andrew Yang oraz wielu znanych badaczy sztucznej inteligencji i dyrektorów generalnych, w tym Stuart Russell, Yoshua Bengio, Gary Marcus i Emad Mostaque . Pełną listę sygnatariuszy można zobaczyć Tutajchociaż nowe nazwiska należy traktować z ostrożnością, ponieważ pojawiają się doniesienia o dodawaniu nazwisk do listy jako żartu (np. dyrektor generalny OpenAI Sam Altman, osoba częściowo odpowiedzialna za obecną dynamikę wyścigu w AI).
Jest mało prawdopodobne, aby list miał jakikolwiek wpływ na obecny klimat w badaniach nad sztuczną inteligencją, w którym firmy technologiczne, takie jak Google i Microsoft, spieszą się z wdrażaniem nowych produktów, często odsuwając na bok deklarowane wcześniej obawy dotyczące bezpieczeństwa i etyki. Jest to jednak oznaka rosnącego sprzeciwu wobec podejścia typu „wyślij teraz, a napraw później”; opozycja, która potencjalnie mogłaby przedostać się do domeny politycznej w celu rozpatrzenia przez faktycznych ustawodawców.
Jak zauważono w liście, nawet sama OpenAI wyraziła potencjalną potrzebę „niezależnego przeglądu” przyszłych systemów AI, aby upewnić się, że spełniają one standardy bezpieczeństwa. Sygnatariusze mówią, że ten czas właśnie nadszedł.
„Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych” – piszą. „Protokoły te powinny gwarantować, że przestrzegające ich systemy są ponad wszelką wątpliwość bezpieczne”.
List można przeczytać w całości Tutaj.