Najlepsi badacze sztucznej inteligencji i dyrektorzy generalni ostrzegają przed „ryzykiem wyginięcia” w oświadczeniu składającym się z 22 słów


Grupa czołowych badaczy sztucznej inteligencji, inżynierów i dyrektorów generalnych wydała nowe ostrzeżenie o egzystencjalnym zagrożeniu, jakie ich zdaniem sztuczna inteligencja stanowi dla ludzkości.

Oświadczenie składające się z 22 słów, skrócone tak, aby było jak najbardziej akceptowalne, brzmi następująco: „Zmniejszanie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna”.

To oświadczenie, opublikowane przez organizację non-profit z siedzibą w San Francisco, Center for AI Safety, zostało podpisane przez takie osobistości, jak dyrektor generalny Google DeepMind Demis Hassabis i dyrektor generalny OpenAI Sam Altman, a także Geoffrey Hinton i Youshua Bengio — dwaj z trzech naukowców zajmujących się sztuczną inteligencją, którzy zdobyli nagrodę Turinga 2018 (czasami nazywaną „nagrodą Nobla w dziedzinie informatyki”) za swoją pracę nad sztuczną inteligencją. W chwili pisania tego tekstu trzeci tegoroczny zwycięzca, Yann LeCun, obecnie główny naukowiec ds. sztucznej inteligencji w spółce macierzystej Facebooka Meta, nie podpisał umowy.

Oświadczenie to najnowsza głośna interwencja w skomplikowaną i kontrowersyjną debatę na temat bezpieczeństwa sztucznej inteligencji. Na początku tego roku A list otwarty podpisany przez wiele z tych samych osób, popierających ostrzeżenie składające się z 22 słów, wzywające do sześciomiesięcznej „przerwy” w rozwoju sztucznej inteligencji. List był krytykowany na wielu poziomach. Niektórzy eksperci uważali, że zawyżało to ryzyko stwarzane przez sztuczną inteligencję, podczas gdy inni zgodzili się z ryzykiem, ale nie z sugerowanym środkiem zaradczym w liście.

Dan Hendrycks, dyrektor wykonawczy Center for AI Safety, powiedział The New York Times że zwięzłość dzisiejszego oświadczenia — które nie sugeruje żadnych potencjalnych sposobów złagodzenia zagrożenia stwarzanego przez sztuczną inteligencję — miała na celu uniknięcie takiego nieporozumienia. „Nie chcieliśmy naciskać na bardzo duże menu 30 potencjalnych interwencji” — powiedział Hendrycks. „Kiedy tak się dzieje, osłabia to przekaz”.

„Istnieje bardzo powszechne błędne przekonanie, nawet w społeczności sztucznej inteligencji, że istnieje tylko garstka zagłady”.

Reklama

Hendrycks opisał wiadomość jako „wyjście” dla postaci z branży zaniepokojonych ryzykiem AI. „Istnieje bardzo powszechne błędne przekonanie, nawet w społeczności AI, że jest tylko garstka zagłady” – powiedział Hendrycks Czasy. „Ale w rzeczywistości wiele osób prywatnie wyraziłoby obawy dotyczące tych rzeczy”.

Ogólne zarysy tej debaty są znane, ale szczegóły często nie mają końca, w oparciu o hipotetyczne scenariusze, w których systemy sztucznej inteligencji szybko zwiększają swoje możliwości i nie działają już bezpiecznie. Wielu ekspertów wskazuje na szybkie ulepszenia systemów, takie jak duże modele językowe, jako dowód przewidywanego przyszłego wzrostu inteligencji. Mówią, że gdy systemy sztucznej inteligencji osiągną pewien poziom zaawansowania, kontrolowanie ich działań może stać się niemożliwe.

Inni wątpią w te prognozy. Wskazują na niezdolność systemów AI do obsługi nawet stosunkowo prozaicznych zadań, jak na przykład prowadzenie samochodu. Pomimo wielu lat wysiłków i miliardów inwestycji w tę dziedzinę badań, w pełni autonomiczne samochody wciąż są dalekie od rzeczywistości. Jeśli sztuczna inteligencja nie poradzi sobie nawet z tym jednym wyzwaniem, mówią sceptycy, jakie szanse ma technologia, by dorównać wszystkim innym osiągnięciom człowieka w nadchodzących latach?

Tymczasem zarówno zwolennicy ryzyka AI, jak i sceptycy są zgodni co do tego, że nawet bez poprawy ich możliwości systemy AI stanowią obecnie szereg zagrożeń — od ich wykorzystania umożliwiającego masową inwigilację, po wspieranie błędnych algorytmów „policji predykcyjnej” i ułatwianie tworzenie dezinformacji i dezinformacji.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Chińska sonda Chang’e 6 Moon ma na pokładzie tajemniczego gościa

Chińska misja sondy księżycowej Chang'e 6 zmierza na niewidoczną stronę Księżyca i wydaje się, że z boku lądownika znajduje się mały łazik, jak...

Sennheiser wprowadza nowe słuchawki HD 620S z zamkniętym tyłem

Najnowszy członek uznanej serii słuchawek Sennheiser HD 600 oferuje atrakcyjne podejście do słuchawek zamkniętych do prywatnego, referencyjnego słuchania bez kompromisów. Chociaż Sennheiser...

Specyfikacja modelu OpenAI przedstawia kilka podstawowych zasad sztucznej inteligencji

Narzędzia AI zachowują się źle — tak jak narzędzia Microsoftu Bing AI traci kontrolę nad tym, który to rok — stał się podgatunkiem...
Advertisment