Elon Musk i najlepsi badacze AI wzywają do wstrzymania „gigantycznych eksperymentów AI”


Wielu znanych badaczy sztucznej inteligencji — i Elon Musk — ma podpisał list otwarty wzywa laboratoria sztucznej inteligencji na całym świecie do wstrzymania rozwoju wielkoskalowych systemów sztucznej inteligencji, powołując się na obawy dotyczące „głębokich zagrożeń dla społeczeństwa i ludzkości”, które, jak twierdzą, stwarza to oprogramowanie.

W liście, opublikowanym przez organizację non-profit Future of Life Institute, zauważono, że laboratoria sztucznej inteligencji są obecnie uwikłane w „niekontrolowany wyścig” w celu opracowania i wdrożenia systemów uczenia maszynowego, „których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidzieć lub niezawodnie kontrolować”.

„Wzywamy wszystkie laboratoria sztucznej inteligencji do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4”.

„Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4” – czytamy w liście. „Ta przerwa powinna być publiczna i weryfikowalna oraz obejmować wszystkich kluczowych aktorów. Jeśli taka przerwa nie może zostać szybko uchwalona, ​​rządy powinny wkroczyć i wprowadzić moratorium”.

Wśród sygnatariuszy są autor Yuval Noah Harari, współzałożyciel Apple Steve Wozniak, współzałożyciel Skype’a Jaan Tallinn, polityk Andrew Yang oraz wielu znanych badaczy sztucznej inteligencji i dyrektorów generalnych, w tym Stuart Russell, Yoshua Bengio, Gary Marcus i Emad Mostaque . Pełną listę sygnatariuszy można zobaczyć Tutajchociaż nowe nazwiska należy traktować z ostrożnością, ponieważ pojawiają się doniesienia o dodawaniu nazwisk do listy jako żartu (np. dyrektor generalny OpenAI Sam Altman, osoba częściowo odpowiedzialna za obecną dynamikę wyścigu w AI).

Jest mało prawdopodobne, aby list miał jakikolwiek wpływ na obecny klimat w badaniach nad sztuczną inteligencją, w którym firmy technologiczne, takie jak Google i Microsoft, spieszą się z wdrażaniem nowych produktów, często odsuwając na bok deklarowane wcześniej obawy dotyczące bezpieczeństwa i etyki. Jest to jednak oznaka rosnącego sprzeciwu wobec podejścia typu „wyślij teraz, a napraw później”; opozycja, która potencjalnie mogłaby przedostać się do domeny politycznej w celu rozpatrzenia przez faktycznych ustawodawców.

Reklama

Jak zauważono w liście, nawet sama OpenAI wyraziła potencjalną potrzebę „niezależnego przeglądu” przyszłych systemów AI, aby upewnić się, że spełniają one standardy bezpieczeństwa. Sygnatariusze mówią, że ten czas właśnie nadszedł.

„Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych” – piszą. „Protokoły te powinny gwarantować, że przestrzegające ich systemy są ponad wszelką wątpliwość bezpieczne”.

List można przeczytać w całości Tutaj.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

YMTC twierdzi, że 3D QLC NAND oferuje wytrzymałość porównywalną z 3D TLC NAND

Jak podaje ITHome, firma twierdzi, że chipy flash YMTC X3-6070 3D QLC NAND oferują wytrzymałość porównywalną z chipami flash 3D TLC NAND oferowanych...

Praktyczne: jak korzystać z SharePlay w CarPlay z Apple Music

Jedna z dużych zmian w iOS 17 dla CarPlay użytkowników jest dodanie obsługi SharePlay dla Apple Music. Dzięki tej funkcji każda osoba...

Rozdanie TechPowerUp-Arctic: nie przegap szansy na wygranie kombinacji Coolers+Fan+TIM

Jeśli przegapiłeś, rozdanie TechPowerUp x Arctic trwa od 22 marca. Aż sześciu szczęśliwych zwycięzców może otrzymać kombinacje chłodnic procesora Arctic, wentylatorów obudowych i...
Advertisment