Współzałożyciel OpenAI o przeszłym podejściu firmy do otwartego udostępniania badań: „Myliliśmy się”


Wczoraj ogłosił OpenAI GPT-4, długo oczekiwany model języka sztucznej inteligencji nowej generacji. Możliwości systemu są wciąż ocenianyale gdy badacze i eksperci ślęczą nad towarzyszącymi mu materiałami, wielu wyraziło rozczarowanie jedną szczególną cechą: że pomimo nazwy firmy macierzystej, GPT-4 nie jest otwarty Model sztucznej inteligencji.

OpenAI udostępniło wiele wyników testów porównawczych i testów dla GPT-4, a także kilka intrygujących wersji demonstracyjnych, ale zasadniczo nie zaoferowało żadnych informacji na temat danych używanych do trenowania systemu, kosztów energii ani konkretnego sprzętu lub metod użytych do jego stworzenia .

Czy badania AI powinny być otwarte czy zamknięte? Eksperci nie są zgodni

Wielu członków społeczności AI skrytykowało tę decyzję, zauważając, że podważa ona etos założycielski firmy jako organizacji badawczej i utrudnia innym powielanie jej pracy. Co być może ważniejsze, niektórzy twierdzą, że utrudnia to również opracowanie zabezpieczeń przed zagrożeniami stwarzanymi przez systemy sztucznej inteligencji, takie jak GPT-4, a skargi te pojawiają się w czasie rosnącego napięcia i szybkiego postępu w świecie sztucznej inteligencji.

„Myślę, że możemy to zamknąć w sprawie „otwartej” sztucznej inteligencji: 98-stronicowy dokument przedstawiający GPT-4 z dumą deklaruje, że nie ujawniają * niczego * na temat zawartości ich zestawu szkoleniowego „ tweetował Ben Schmidt, wiceprezes ds. projektowania informacji w Nomic AI, w wątku na ten temat.

Tutaj Schmidt odnosi się do sekcji w GPT-4 raport techniczny to brzmi następująco:

Biorąc pod uwagę zarówno konkurencyjny krajobraz, jak i implikacje bezpieczeństwa wielkoskalowych modeli, takich jak GPT-4, ten raport nie zawiera dalszych szczegółów na temat architektury (w tym rozmiaru modelu), sprzętu, obliczeń szkoleniowych, konstrukcji zestawu danych, metody szkolenia lub podobnych.

Reklama

mówić do Krawędź w wywiadzie Ilya Sutskever, główny naukowiec i współzałożyciel OpenAI, rozwinął tę kwestię. Sutskever powiedział, że powody, dla których OpenAI nie udostępnia więcej informacji o GPT-4 – strach przed konkurencją i obawy o bezpieczeństwo – są „oczywiste”:

„Na froncie konkurencyjnym — tam jest konkurencyjnie” — powiedział Sutskever. „GPT-4 nie jest łatwy do opracowania. Wyprodukowanie tego zajęło prawie całemu OpenAI wspólną pracę przez bardzo długi czas. I jest wiele firm, które chcą robić to samo, więc z punktu widzenia konkurencji można to postrzegać jako dojrzewanie tej dziedziny”.

„Po stronie bezpieczeństwa powiedziałbym, że strona bezpieczeństwa nie jest jeszcze tak istotnym powodem, jak strona konkurencyjna. Ale to się zmieni i zasadniczo wygląda to następująco. Te modele są bardzo silne i stają się coraz potężniejsze. W pewnym momencie będzie całkiem łatwo, jeśli ktoś zechce, wyrządzić wielką krzywdę tymi modelami. A ponieważ możliwości stają się coraz wyższe, ma sens, że nie chcesz ich ujawniać”.

„W pełni oczekuję, że za kilka lat dla wszystkich stanie się całkowicie oczywiste, że sztuczna inteligencja oparta na otwartym kodzie źródłowym nie jest po prostu mądra”.

Zamknięte podejście jest wyraźną zmianą dla OpenAI, która była założona w 2015 roku przez niewielką grupę, w skład której wchodzi obecny dyrektor generalny Sam Altman, dyrektor generalny Tesli Elon Musk (który zrezygnował z członkostwa w zarządzie w 2018 r.) oraz Sutskever. w wpis na blogu, Sutskever i inni powiedzieli, że celem organizacji jest „budowanie wartości dla wszystkich, a nie dla akcjonariuszy” i że w tym celu będzie „swobodnie współpracować” z innymi osobami w terenie. OpenAI została założona jako organizacja non-profit, ale później stała się „ograniczonym zyskiem”, aby zabezpieczyć miliardowe inwestycje, głównie od firmy Microsoft, z którą ma teraz wyłączne licencje biznesowe.

Zapytany, dlaczego OpenAI zmieniło swoje podejście do udostępniania swoich badań, Sutskever odpowiedział po prostu: „Myliliśmy się. Poprostu, myliliśmy się. Jeśli wierzysz, tak jak my, że w pewnym momencie AI — AGI — będzie niezwykle, niewiarygodnie potężny, wtedy po prostu nie ma sensu otwierać kodu źródłowego. To zły pomysł… W pełni spodziewam się, że za kilka lat dla wszystkich będzie całkowicie oczywiste, że sztuczna inteligencja typu open source nie jest po prostu mądra”.

Opinie w społeczności AI na ten temat są różne. Warto zauważyć, że premiera GPT-4 następuje zaledwie kilka tygodni po kolejnym modelu języka sztucznej inteligencji opracowanym przez właściciela Facebooka Meta, nazwany LLaMA, wyciekły do ​​sieci, wywołując podobne dyskusje na temat zagrożeń i korzyści płynących z badań open source. Jednak większość początkowych reakcji na zamknięty model GPT-4 była negatywna.

mówić do Krawędź za pośrednictwem DM Schmidt z Nomic AI wyjaśnił, że brak możliwości zobaczenia, na jakich danych GPT-4 został przeszkolony, utrudnia ustalenie, gdzie system może być bezpiecznie używany i wymyślenie poprawek.

„Aby ludzie mogli podejmować świadome decyzje o tym, gdzie ten model nie zadziała, muszą mieć lepsze wyczucie tego, co on robi i jakie są założenia” — powiedział Schmidt. „Nie ufałbym samojezdnemu samochodowi, przeszkolonemu bez doświadczenia w śnieżnych klimatach; prawdopodobnie istnieją pewne dziury lub inne problemy, które mogą się pojawić, gdy jest to używane w rzeczywistych sytuacjach”.

William Falcon, dyrektor generalny Lightning AI i twórca narzędzia open-source PyTorch Lightning, powiedział VentureBeat że zrozumiał tę decyzję z biznesowego punktu widzenia. („Masz do tego pełne prawo jako firma”), ale powiedział również, że posunięcie to stanowi „zły precedens” dla szerszej społeczności i może mieć szkodliwe skutki.

„Jeśli ten model się nie powiedzie… jak społeczność ma zareagować?”

„Jeśli ten model się nie powiedzie, a tak się stanie, już to widziałeś z halucynacjami i podawaniem fałszywych informacji, jak społeczność ma zareagować?” powiedział Sokół. „W jaki sposób etyczni badacze mają iść i faktycznie proponować rozwiązania i mówić, że ten sposób nie działa, może zmodyfikować go, aby zrobić coś innego?”

Innym sugerowanym przez niektórych powodem ukrywania przez OpenAI szczegółów budowy GPT-4 jest odpowiedzialność prawna. Modele językowe AI są szkolone na ogromnych zbiorach danych tekstowych, a wiele (w tym wcześniejsze systemy GPT) pobiera informacje z sieci — źródła, które prawdopodobnie zawiera materiały chronione prawem autorskim. Generatory obrazów AI, które również szkoliły się w zakresie treści z Internetu, właśnie z tego powodu stanęły w obliczu wyzwań prawnych, a kilka firm jest obecnie pozwanych przez niezależnych artystów I witryna ze zdjęciami Getty Images.

Zapytany, czy to był jeden z powodów, dla których OpenAI nie udostępnił swoich danych treningowych, Sutskever powiedział: „Moim zdaniem dane szkoleniowe to technologia. Może to nie wygląda w ten sposób, ale tak jest. A powód, dla którego nie ujawniamy danych treningowych, jest prawie taki sam, dlaczego nie ujawniamy liczby parametrów”. Sutskever nie odpowiedział na pytanie, czy OpenAI może ostatecznie stwierdzić, że jego dane szkoleniowe nie zawierają pirackich materiałów.

Sutskever zgodził się z krytykami OpenAI, że pomysł, że modele open-sourcingowe pomagają opracować zabezpieczenia, ma „zasługę”. „Gdyby więcej osób studiowało te modele, dowiedzielibyśmy się o nich więcej i byłoby dobrze” – powiedział. Jednak z tych powodów OpenAI zapewnił niektórym instytucjom akademickim i badawczym dostęp do swoich systemów.

Dyskusja na temat udostępniania badań pojawia się w czasie szalonych zmian w świecie sztucznej inteligencji, z rosnącą presją na wielu frontach. Po stronie korporacyjnej są giganci technologiczni, tacy jak Google i Microsoft gwałtowny dodać Funkcje sztucznej inteligencji do swoich produktów, często ignorując wcześniejsze kwestie etyczne. (Microsoft niedawno zwolnił zespół stara się upewnić, że jej produkty AI są zgodne z wytycznymi etycznymi.) Po stronie badawczej sama technologia najwyraźniej szybko się poprawia, wywołując obawy, że sztuczna inteligencja staje się poważnym i nieuchronnym zagrożeniem.

Zrównoważenie tych różnych nacisków stanowi poważne wyzwanie dla zarządzania, powiedziała Jess Whittlestone, szefowa polityki sztucznej inteligencji w brytyjskim think tanku The Center for Long-Term Resilience – i która, jak powiedziała, prawdopodobnie będzie wymagała zaangażowania zewnętrznych organów regulacyjnych.

„Podejmowanie takich decyzji nie powinno należeć do poszczególnych firm”.

„Widzimy, że możliwości sztucznej inteligencji poruszają się bardzo szybko i ogólnie martwię się, że te możliwości rozwijają się szybciej, niż możemy się do nich dostosować jako społeczeństwo” – powiedział Whittlestone Krawędź. Powiedziała, że ​​powody, dla których OpenAI nie ujawnia więcej szczegółów na temat GPT-4, są dobre, ale istnieją również uzasadnione obawy dotyczące centralizacji władzy w świecie sztucznej inteligencji.

„Podejmowanie takich decyzji nie powinno należeć do poszczególnych firm” — powiedział Whittlestone. „Idealnie byłoby, gdybyśmy skodyfikowali, jakie są tutaj praktyki, a następnie niezależne strony trzecie odgrywały większą rolę w badaniu ryzyka związanego z niektórymi modelami i czy ma sens udostępnianie ich światu”.





Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Najnowsza aktualizacja Dragon’s Dogma 2 poprawia jakość DLSS, naprawia błędy i nie tylko

Capcom wypuścił najnowszą aktualizację do gry Dragon's Dogma 2 na PC i PlayStation 5, natomiast Xbox otrzyma ją w ciągu najbliższych kilku dni....

What to watch on Apple TV Plus

Apple TV+ offers exclusive Apple original TV shows and movies in 4K HDR quality. You can watch across all of your screens and...

YMTC twierdzi, że 3D QLC NAND oferuje wytrzymałość porównywalną z 3D TLC NAND

Jak podaje ITHome, firma twierdzi, że chipy flash YMTC X3-6070 3D QLC NAND oferują wytrzymałość porównywalną z chipami flash 3D TLC NAND oferowanych...
Advertisment