Elon Musk i najlepsi badacze AI wzywają do wstrzymania „gigantycznych eksperymentów AI”


Wielu znanych badaczy sztucznej inteligencji — i Elon Musk — ma podpisał list otwarty wzywa laboratoria sztucznej inteligencji na całym świecie do wstrzymania rozwoju wielkoskalowych systemów sztucznej inteligencji, powołując się na obawy dotyczące „głębokich zagrożeń dla społeczeństwa i ludzkości”, które, jak twierdzą, stwarza to oprogramowanie.

W liście, opublikowanym przez organizację non-profit Future of Life Institute, zauważono, że laboratoria sztucznej inteligencji są obecnie uwikłane w „niekontrolowany wyścig” w celu opracowania i wdrożenia systemów uczenia maszynowego, „których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidzieć lub niezawodnie kontrolować”.

„Wzywamy wszystkie laboratoria sztucznej inteligencji do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4”.

„Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4” – czytamy w liście. „Ta przerwa powinna być publiczna i weryfikowalna oraz obejmować wszystkich kluczowych aktorów. Jeśli taka przerwa nie może zostać szybko uchwalona, ​​rządy powinny wkroczyć i wprowadzić moratorium”.

Wśród sygnatariuszy są autor Yuval Noah Harari, współzałożyciel Apple Steve Wozniak, współzałożyciel Skype’a Jaan Tallinn, polityk Andrew Yang oraz wielu znanych badaczy sztucznej inteligencji i dyrektorów generalnych, w tym Stuart Russell, Yoshua Bengio, Gary Marcus i Emad Mostaque . Pełną listę sygnatariuszy można zobaczyć Tutajchociaż nowe nazwiska należy traktować z ostrożnością, ponieważ pojawiają się doniesienia o dodawaniu nazwisk do listy jako żartu (np. dyrektor generalny OpenAI Sam Altman, osoba częściowo odpowiedzialna za obecną dynamikę wyścigu w AI).

Jest mało prawdopodobne, aby list miał jakikolwiek wpływ na obecny klimat w badaniach nad sztuczną inteligencją, w którym firmy technologiczne, takie jak Google i Microsoft, spieszą się z wdrażaniem nowych produktów, często odsuwając na bok deklarowane wcześniej obawy dotyczące bezpieczeństwa i etyki. Jest to jednak oznaka rosnącego sprzeciwu wobec podejścia typu „wyślij teraz, a napraw później”; opozycja, która potencjalnie mogłaby przedostać się do domeny politycznej w celu rozpatrzenia przez faktycznych ustawodawców.

Reklama

Jak zauważono w liście, nawet sama OpenAI wyraziła potencjalną potrzebę „niezależnego przeglądu” przyszłych systemów AI, aby upewnić się, że spełniają one standardy bezpieczeństwa. Sygnatariusze mówią, że ten czas właśnie nadszedł.

„Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych” – piszą. „Protokoły te powinny gwarantować, że przestrzegające ich systemy są ponad wszelką wątpliwość bezpieczne”.

List można przeczytać w całości Tutaj.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

FSP zasila Computex mnóstwem wysokiej klasy zasilaczy

Jako detaliczna marka Fortron, jednego z największych producentów OEM zasilaczy w branży, FSP zajmuje centralne miejsce w pierwszym rzędzie, jeśli chodzi o innowacje...

Podstawowy iPad radykalnie zwiększył sprzedaż w USA

Pod koniec ubiegłego roku Jabłko w końcu zaktualizował poziom podstawowy iPada aby dostosować go do projekt na cały ekran swoich droższych modeli –...

Linie Garmin Epix 2 i Fenix ​​7 stają się „Pro”

Garmin dołącza do modnego modelu Pro. W środę wprowadza na rynek Epix 2 Pro i Fenix ​​7 Pro, które są wyposażone w...
Advertisment