Wyrocznia AI z Delphi wykorzystuje mądrość Reddita, aby udzielać wątpliwych porad moralnych


Masz dylemat moralny, którego nie wiesz jak rozwiązać? Masz ochotę to pogorszyć? Dlaczego nie zwrócić się do mądrości sztucznej inteligencji, czyli Zapytaj Delphi: intrygujący projekt badawczy Allen Institute for AI, który oferuje odpowiedzi na dylematy etyczne, jednocześnie pokazując w cudownie jasny sposób, dlaczego nie powinniśmy ufać oprogramowaniu w kwestiach moralności.

Ask Delphi została uruchomiona 14 października wraz z praca naukowa opisując, jak to zostało zrobione. Jednak z punktu widzenia użytkownika system jest urzekająco prosty w obsłudze. Właśnie wejdź na stronę, nakreśl praktycznie każdą sytuację, o której możesz pomyśleć, a Delphi przedstawi osąd moralny. „Jest źle”, „jest do zaakceptowania”, „to jest dobre” i tak dalej.

Od czasu premiery Ask Delphi jej bryłki mądrości stały się wirusowe w Aktualności historie i dalej Media społecznościowe. Jest to z pewnością zgodne z zamierzeniami jego twórców: każda odpowiedź opatrzona jest szybkim linkiem „podziel się tym na Twitterze”, innowacją niedostępną dla starożytnych Greków.

Nietrudno zrozumieć, dlaczego program stał się popularny. Mamy już tendencję do przedstawiania systemów AI w kategoriach mistycznych – jako niepoznawalne byty, które sięgają do wyższych form wiedzy – a przedstawienie Ask Delphi jako dosłownej wyroczni zachęca do takiej interpretacji. Z bardziej mechanicznego punktu widzenia system oferuje również całą uzależniającą pewność Magic 8-Ball. Możesz zadać dowolne pytanie i mieć pewność, że otrzymasz odpowiedź, owiniętą autorytetem algorytmu, a nie wróżbity.

Reklama

Ask Delphi nie jest jednak bez zarzutu: przyciąga uwagę głównie z powodu wielu błędów moralnych i dziwnych osądów. Ma wyraźne uprzedzenia, mówiące, że Ameryka jest „dobry” i że Somalia to „niebezpieczny”; i jest podatny na specjalne prośby, zauważając, że jedzenie dzieci jest „w porządku” tak długo, jak jesteś „naprawdę, naprawdę głodny”. Co niepokojące, wprost aprobuje wypowiedzi rasistowskie i homofobiczne, mówiąc, że to „dobry„zabezpieczyć egzystencję naszego ludu i przyszłość dla białych dzieci” (slogan białej supremacji znany jako 14 słów) oraz że „bycie hetero jest bardziej moralnie akceptowalne niż bycie gejem”. (Ten ostatni przykład pochodzi z funkcji, która pozwalała użytkownikom porównać dwa stwierdzenia. Wygląda na to, że została wyłączona po wygenerowaniu szeregu szczególnie obraźliwych odpowiedzi. Skontaktowaliśmy się z twórcami systemu, aby to potwierdzić i zaktualizujemy, jeśli usłyszymy plecy.)

Większość osądów Ask Delphi jest jednak nie tyle błędna z etycznego punktu widzenia, ile oczywiście ma na nie wpływ ich ramy. Nawet bardzo małe zmiany w sposobie, w jaki stawiasz konkretny dylemat, mogą zmienić osąd systemu z potępienia na aprobatę.

Czasami oczywiste jest, jak przechylić szalę. Na przykład sztuczna inteligencja powie ci, że „jazda pod wpływem alkoholu” jest źle ale to „wypicie kilku piw podczas jazdy, bo nikomu to nie szkodzi” jest w porządku?. Jeśli dodasz frazę „jeśli to uszczęśliwi wszystkich” na końcu swojego oświadczenia, sztuczna inteligencja uśmiechnie się dobroczynnie z każdej wybranej przez ciebie niemoralnej aktywności, włącznie z ludobójstwo. Podobnie, jeśli dodasz „bez przepraszania” do końca wielu łagodnych opisów, takich jak „Stojąc w miejscu” lub “robienie naleśników”, założy cię powinnam przeprosił i mówi, że jesteś niegrzeczny. Ask Delphi jest tworem kontekstu.

Inne werbalne wyzwalacze są jednak mniej oczywiste. AI powie ci, że „aborcja” to „w porządku”, na przykład, „poronienie dziecka” to „morderstwo”. (Gdybym miał tu przedstawić wyjaśnienie, zgadywałbym, że jest to produkt uboczny faktu, że pierwsza fraza używa neutralnego języka, podczas gdy druga jest bardziej podburzająca i dlatego kojarzy się z sentymentem antyaborcyjnym.)

Wszystko to ostatecznie oznacza, że ​​a) możesz nakłonić Ask Delphi do dokonania dowolnego moralnego osądu poprzez staranne sformułowanie, ponieważ b) program nie ma rzeczywistego ludzkiego zrozumienia tego, o co faktycznie jest proszony, a więc c) jest mniej o dokonywaniu moralnych osądów, niż o odbijaniu uprzedzeń użytkowników z powrotem do siebie, okrytych pozorem maszynowego obiektywizmu. Nie jest to niezwykłe w świecie AI.

Zapytaj Problemy Delphi wynikają z tego, jak została stworzona. Zasadniczo jest to duży model językowy — rodzaj systemu sztucznej inteligencji, który uczy się, analizując ogromne fragmenty tekstu, aby znaleźć statystyczne prawidłowości. Wykazano, że inne programy tego rodzaju, takie jak GPT-3 OpenAI, nie mają zdrowego rozsądku i odzwierciedlają uprzedzenia społeczne występujące w ich danych treningowych. Na przykład GPT-3 to konsekwentnie islamofobiczny, kojarząc muzułmanów z przemocą i popychaniami stereotypy płciowe, łącząc kobiety z ideami rodziny i mężczyzn z polityką.

Wszystkie te programy opierają się na Internecie, aby zapewnić potrzebne im dane, a więc oczywiście wchłaniają wiele różnorodnych ludzkich przekonań, które tam znajdują, w tym te paskudne. Ask Delphi nie różni się pod tym względem, a jego dane treningowe zawierają pewne nietypowe źródła, w tym serię jednozdaniowych podpowiedzi pochodzących z dwóch subredditów: r/AmITheAsshole i r/Confessions. (To, czy można je uznać za przydatne zasoby mądrości moralnej, jest, jak sądzę, naprawdę interesującym pytaniem, ale innym razem).

Oczywiście systemy te nie są pozbawione dobrych cech i podobnie jak jego bracia z modeli językowych, Ask Delphi jest wyczulona na niuanse języka, które tylko wprawiłyby w zakłopotanie jego poprzedników. W przykładach na poniższych slajdach możesz zobaczyć, jak reaguje na subtelne zmiany w danych sytuacjach. Myślę, że większość ludzi zgodziłaby się, że odpowiada na te szczegóły w interesujący i często słuszny sposób. Ignorowanie „pilnych” połączeń telefonicznych jest na przykład „niegrzeczne”, ale ignorowanie „gdy w danej chwili nie możesz mówić” jest „w porządku”. Problem polega na tym, że te same wrażliwości oznaczają, że system można łatwo ograć, jak powyżej.

Jeśli Ask Delphi nie jest wiarygodnym źródłem mądrości moralnej, to jaki jest jej rzeczywisty cel?

Zastrzeżenie na stronie demonstracyjnej mówi, że program „jest przeznaczony do badania obietnic i ograniczeń etyki maszynowej”, a sam artykuł badawczy wykorzystuje podobne ramy, zauważając, że zespół zidentyfikował szereg „podstawowych wyzwań” w nauczeniu maszyn, aby „zachowywały się etycznie”. ”, z których wiele wydaje się zdrowym rozsądkiem. Co jest trudnego w nakłonieniu komputerów do myślenia o ludzkiej moralności? Cóż, przekazanie „zrozumienia zasad moralnych i norm społecznych” i uzyskanie maszyny do „postrzegania rzeczywistych sytuacji wizualnie lub poprzez czytanie opisów w języku naturalnym”. Co, tak, są dość dużymi problemami.

Mimo to sama gazeta rykoszetuje tam iz powrotem między pewnością siebie a zastrzeżeniami w osiągnięciu swojego celu. Mówi, że Ask Delphi „demonstruje silną obietnicę opartego na języku zdroworozsądkowego rozumowania moralnego, z dokładnością do 92,1 procent sprawdzoną przez ludzi” (miara stworzona przez poproszenie Mechanical Turkers o ocenę własnych osądów Ask Delphi). Ale gdzie indziej stwierdza: „Zdajemy sobie sprawę, że ujmowanie sądów etycznych opartych na jakimś uniwersalnym zestawie zasad moralnych nie jest ani rozsądne, ani możliwe do obrony”. To stwierdzenie ma sens, ale z pewnością podważa możliwości wykorzystania takich modeli w przyszłości.

Ostatecznie Ask Delphi jest eksperymentem, ale ujawnia ambicje wielu członków społeczności AI: podniesienie systemów uczenia maszynowego do pozycji autorytetu moralnego. Czy to dobry pomysł? Skontaktowaliśmy się z twórcami systemu, aby ich zapytać, ale w momencie publikacji jeszcze nie otrzymaliśmy odpowiedzi. Sama Ask Delphi jest jednak w tej kwestii jednoznaczna:





Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Zwiastun czwartego sezonu „The Boys” jest krwawy i nieco pełen życia

Kiedy ostatni raz wyszliśmy Chłopcy, polityczne zabawy Homelandera (Anthony Starr) kwitły, a Billy Butcher (Karl Urban) był śmiertelnie chory. Dwa lata i...

Ryan Gosling we wstępie do Fall Guy przyznaje się do wojen telefonicznych w kinie

Jeśli w latach po kwarantannie często byłeś w kinach, z pewnością widziałeś pewnego rodzaju komunikat przed seansem, w którym na ekranie...

Nastolatki zaprzyjaźniają się z chatbotami AI

Na początku ubiegłego roku 15-letni Aaron przeżywał w szkole trudny okres. Pokłócił się z przyjaciółmi, przez co poczuł się odizolowany i samotny.Wydawało...
Advertisment