Jedną z rzeczy, które najbardziej podobają mi się w uczeniu maszynowym, jest to, jak całkiem zgrabnie ilustruje to, że inżynierowie nie wiedzą, jak ludzie pracują. Weźmy na przykład duże modele językowe. Powiedziano mi, że zabiorą mi pracę, czyniąc mnie niepotrzebną; że są inteligentni; że zaplanują idealny plan mojej podróży do Paryża, z najważniejszymi informacjami o barach i restauracjach są z pewnością dokładne i kompletne.
Zainspirowany przez tweet o majoneziezabrałem się teraz za zabawny eksperyment z Google Bard.
Decyduję się na to z dwóch powodów. Po pierwsze, ten rodzaj quizu jest czymś, co robisz z małymi dziećmi, kiedy uczysz je czytać. Każesz im rozpoznawać litery i dźwięki, które wydają. Ale po drugie, mocno podejrzewam, że ta powszechna czynność nie jest ujęta w jakichkolwiek danych, z których czerpie Bard, ponieważ nie jest to rodzaj rzeczy, które się zapisuje.
Jest to oczywiście absurdalne, ale absurdalne, ponieważ możemy spojrzeć na słowo „ketchup” i wyraźnie zobaczyć „e”. Bard nie może tego zrobić. Żyje w całkowicie zamkniętym świecie danych treningowych.
W ten sposób rozwiązuje się problem z LLM. Język jest bardzo starą ludzką technologią, ale nasza inteligencja go poprzedziła. Jak wszystkie zwierzęta społeczne, musimy śledzić relacje statusu, dlatego nasze mózgi są tak duże i dziwne. Język to bardzo przydatne narzędzie — cześć, zarabiam na życie z pisania! — ale to nie to samo, co wiedza. Unosi się nad wieloma innymi rzeczami, które uważamy za oczywiste.
Często myślę o artykule Rodneya Brooksa z 1987 r., „Inteligencja bez reprezentacji”, która jest bardziej aktualna niż kiedykolwiek. Nie zamierzam zaprzeczać, że używanie języka i inteligencja są ze sobą powiązane — ale inteligencja poprzedza język. Jeśli pracujesz z językiem przy braku inteligencji, jak widzimy w przypadku LLM, uzyskujesz dziwne wyniki. Brooks porównuje to, co dzieje się z LLM, do grupy wczesnych badaczy próbujących zbudować samolot, skupiając się na siedzeniach i oknach.
Jestem prawie pewien, że nadal ma co do tego rację.
Rozumiem pokusę, by przejść do złożonej rozmowy z LLM. Wiele osób bardzo chce, abyśmy potrafili zbudować inteligentny komputer. Te fantazje często pojawiają się w science fiction, gatunku szeroko czytanym przez nerdów, i sugerują tęsknotę za tym, by wiedzieć, że nie jesteśmy sami we wszechświecie. To ten sam impuls, który kieruje naszymi próbami skontaktowania się z inteligencją obcych.
Ale próba udawania, że LLM mogą myśleć, jest fantazją. Możesz zapytać o podświadomość, jeśli chcesz, ale dostaniesz glupoty. Nic tam nie ma. To znaczy, spójrz na jego próby w sztuce ASCII!
Kiedy robisz coś takiego — zadanie, w którym przeciętny pięciolatek jest świetny, a wyrafinowany LLM oblewa — zaczynasz dostrzegać, jak inteligencja Właściwie Pracuje. Jasne, są ludzi, którzy wierzą, że LLM mają świadomośćAle ci ludzie wydają mi się tragicznie niedouspołecznieninie mogąc dokładnie zrozumieć ani docenić, jak genialni są zwykli ludzie.
Tak, Bard może wytwarzać glurge. W rzeczywistości, podobnie jak większość chatbotów, wyróżnia się autouzupełnianiem tekstu marketingowego. Jest to prawdopodobnie odzwierciedleniem tego, ile tekstu reklamy pojawia się w danych szkoleniowych. Bard i jego inżynierowie prawdopodobnie nie patrzą na to w ten sposób, ale jaki to druzgocący komentarz do naszego codziennego życia w Internecie.
Reklama to jedno. Ale umiejętność tworzenia tekstu reklamowego nie jest oznaką inteligencji. Jest wiele rzeczy, których nie zawracamy sobie głowy zapisaniem, ponieważ nie musimy, i innych rzeczy, o których wiemy, ale żargon zapisz — na przykład, jak jeździć na rowerze. Rozmawiając ze sobą, idziemy na skróty, ponieważ ludzie w dużej mierze pracują z tymi samymi bazowymi informacjami o świecie. Jest ku temu powód: wszyscy jesteśmy W świat. Chatbot nie.
Jestem pewien, że pojawi się ktoś, kto powie mi, że chatboty się poprawią, a ja po prostu jestem złośliwy. Po pierwsze: to jest vaporware, dopóki nie zostanie wysłane, kochanie. Ale po drugie, tak naprawdę nie wiemy, jacy jesteśmy mądrzy ani jak myślimy. Jeśli istnieje jedno prawdziwe zastosowanie chatbotów, jest to naświetlenie rzeczy dotyczących naszej własnej inteligencji, które uważamy za oczywiste. Lub, jak to ujął ktoś mądrzejszy ode mnie: mapa to nie terytorium. Język jest mapą; wiedza to terytorium.
Istnieje szeroki zakres rzeczy, których chatboty nie wiedzą i nie mogą wiedzieć. Prawda jest taka, że nie trzeba wiele wysiłku, aby LLM oblał test Turinga, o ile zadajesz właściwe pytania.