Czy Bard wie, ile razy „e” pojawia się w „ketchup”?


Jedną z rzeczy, które najbardziej podobają mi się w uczeniu maszynowym, jest to, jak całkiem zgrabnie ilustruje to, że inżynierowie nie wiedzą, jak ludzie pracują. Weźmy na przykład duże modele językowe. Powiedziano mi, że zabiorą mi pracę, czyniąc mnie niepotrzebną; że są inteligentni; że zaplanują idealny plan mojej podróży do Paryża, z najważniejszymi informacjami o barach i restauracjach są z pewnością dokładne i kompletne.

Zainspirowany przez tweet o majoneziezabrałem się teraz za zabawny eksperyment z Google Bard.

Zademonstrowano sztuczną inteligencję.

Decyduję się na to z dwóch powodów. Po pierwsze, ten rodzaj quizu jest czymś, co robisz z małymi dziećmi, kiedy uczysz je czytać. Każesz im rozpoznawać litery i dźwięki, które wydają. Ale po drugie, mocno podejrzewam, że ta powszechna czynność nie jest ujęta w jakichkolwiek danych, z których czerpie Bard, ponieważ nie jest to rodzaj rzeczy, które się zapisuje.

Jak powiedział Arlo Guthrie: „Nie jestem dumny… ani zmęczony”.

Jest to oczywiście absurdalne, ale absurdalne, ponieważ możemy spojrzeć na słowo „ketchup” i wyraźnie zobaczyć „e”. Bard nie może tego zrobić. Żyje w całkowicie zamkniętym świecie danych treningowych.

Reklama

W ten sposób rozwiązuje się problem z LLM. Język jest bardzo starą ludzką technologią, ale nasza inteligencja go poprzedziła. Jak wszystkie zwierzęta społeczne, musimy śledzić relacje statusu, dlatego nasze mózgi są tak duże i dziwne. Język to bardzo przydatne narzędzie — cześć, zarabiam na życie z pisania! — ale to nie to samo, co wiedza. Unosi się nad wieloma innymi rzeczami, które uważamy za oczywiste.

Gdyby to nie była maszyna, zaczynałbym się już czuć źle.

Często myślę o artykule Rodneya Brooksa z 1987 r., „Inteligencja bez reprezentacji”, która jest bardziej aktualna niż kiedykolwiek. Nie zamierzam zaprzeczać, że używanie języka i inteligencja są ze sobą powiązane — ale inteligencja poprzedza język. Jeśli pracujesz z językiem przy braku inteligencji, jak widzimy w przypadku LLM, uzyskujesz dziwne wyniki. Brooks porównuje to, co dzieje się z LLM, do grupy wczesnych badaczy próbujących zbudować samolot, skupiając się na siedzeniach i oknach.

Jestem prawie pewien, że nadal ma co do tego rację.

W którym próbuję ustalić, czy Bard po prostu ma słabość do ketchupu.

Rozumiem pokusę, by przejść do złożonej rozmowy z LLM. Wiele osób bardzo chce, abyśmy potrafili zbudować inteligentny komputer. Te fantazje często pojawiają się w science fiction, gatunku szeroko czytanym przez nerdów, i sugerują tęsknotę za tym, by wiedzieć, że nie jesteśmy sami we wszechświecie. To ten sam impuls, który kieruje naszymi próbami skontaktowania się z inteligencją obcych.

Ale próba udawania, że ​​LLM mogą myśleć, jest fantazją. Możesz zapytać o podświadomość, jeśli chcesz, ale dostaniesz glupoty. Nic tam nie ma. To znaczy, spójrz na jego próby w sztuce ASCII!

Panie Policjant… Dałem panu wszystkie wskazówki…

Kiedy robisz coś takiego — zadanie, w którym przeciętny pięciolatek jest świetny, a wyrafinowany LLM oblewa — zaczynasz dostrzegać, jak inteligencja Właściwie Pracuje. Jasne, są ludzi, którzy wierzą, że LLM mają świadomośćAle ci ludzie wydają mi się tragicznie niedouspołecznieninie mogąc dokładnie zrozumieć ani docenić, jak genialni są zwykli ludzie.

Tak, Bard może wytwarzać glurge. W rzeczywistości, podobnie jak większość chatbotów, wyróżnia się autouzupełnianiem tekstu marketingowego. Jest to prawdopodobnie odzwierciedleniem tego, ile tekstu reklamy pojawia się w danych szkoleniowych. Bard i jego inżynierowie prawdopodobnie nie patrzą na to w ten sposób, ale jaki to druzgocący komentarz do naszego codziennego życia w Internecie.

Reklama to jedno. Ale umiejętność tworzenia tekstu reklamowego nie jest oznaką inteligencji. Jest wiele rzeczy, których nie zawracamy sobie głowy zapisaniem, ponieważ nie musimy, i innych rzeczy, o których wiemy, ale żargon zapisz — na przykład, jak jeździć na rowerze. Rozmawiając ze sobą, idziemy na skróty, ponieważ ludzie w dużej mierze pracują z tymi samymi bazowymi informacjami o świecie. Jest ku temu powód: wszyscy jesteśmy W świat. Chatbot nie.

Jestem pewien, że pojawi się ktoś, kto powie mi, że chatboty się poprawią, a ja po prostu jestem złośliwy. Po pierwsze: to jest vaporware, dopóki nie zostanie wysłane, kochanie. Ale po drugie, tak naprawdę nie wiemy, jacy jesteśmy mądrzy ani jak myślimy. Jeśli istnieje jedno prawdziwe zastosowanie chatbotów, jest to naświetlenie rzeczy dotyczących naszej własnej inteligencji, które uważamy za oczywiste. Lub, jak to ujął ktoś mądrzejszy ode mnie: mapa to nie terytorium. Język jest mapą; wiedza to terytorium.

Istnieje szeroki zakres rzeczy, których chatboty nie wiedzą i nie mogą wiedzieć. Prawda jest taka, że ​​​​nie trzeba wiele wysiłku, aby LLM oblał test Turinga, o ile zadajesz właściwe pytania.





Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

EVGA wyprodukowała sklasyfikowaną płytę główną AMD X670E, prototyp kosztuje na aukcji 1300 dolarów

Firma EVGA zaprojektowała płytę główną z chipsetem AMD X670E dla segmentu entuzjastów dla platformy Socket AM5, która nigdy nie trafiła na rynek masowy....

Wydarzenie Pokémon Go „Spelunker’s Cove” i zadania badawcze w określonym czasie

PokemonGo organizuje wydarzenie Pokémon typu wodnego i skalnego o nazwie „Zatoka Spelunkera” zbiegło się z Pokémon Go Fest: Madrid. ...

Intel identyfikuje główną przyczynę problemów ze stabilnością jeziora Raptor w wadliwym algorytmie mikrokodu eTVB

Firma Intel zidentyfikowała główną przyczynę problemów ze stabilnością obserwowanych w niektórych wysokiej klasy modelach procesorów Core „Raptor Lake” 13. i 14. generacji, które...
Advertisment