Użytkownicy TikTok często wyrażają podziw lub przerażenie z powodu pozornie niesamowitej dokładności algorytmu rekomendacji aplikacji. Dziennik Wall Street opublikował wideo dzisiaj zagłębiamy się w to, jak TikTok dostosowuje Twój kanał.
WSJ badacze przeprowadzili eksperyment, w którym utworzyli konta botów z przypisanymi zainteresowaniami. Boty „oglądały” filmy w TikTok, wstrzymując lub odtwarzając wszystkie, które zawierały obrazy lub hashtagi odpowiednie dla tych zainteresowań. WSJ zespół sprawdził wyniki z Guillaume Chaslot, ekspert od algorytmów, który wcześniej pracował w YouTube.
Wyniki są zgodne z wyjaśnieniami TikTok dotyczącymi działania jego zaleceń. TIK Tok wcześniej powiedział kanał Dla Ciebie jest spersonalizowany w oparciu o rodzaje filmów, z którymi wchodzisz w interakcję, sposób interakcji z nimi, szczegóły dotyczące samych filmów oraz ustawienia konta, takie jak język i lokalizacja.
Jeśli wahasz się przed dziwnym filmem, który cię zaskoczył, algorytm nie ma możliwości odróżnienia go od treści, które naprawdę lubisz i których chcesz zobaczyć więcej. W ten sposób niektórzy ludzie otrzymują kilka rekomendacji dla Ciebie, które nie wydają się odzwierciedlać ich zainteresowań.
Chociaż ludzie mają bardziej zróżnicowane gusta niż boty, eksperyment pokazuje, jak szybko użytkownik może być narażony na dalekie zasięgi potencjalnie szkodliwych treści. Według WSJTikTok zidentyfikował zainteresowania niektórych botów w zaledwie 40 minut. Jeden z robotów wpadł w króliczą norę depresyjnych filmów, podczas gdy inny trafił na filmy o spiskach wyborczych. Choć jak Will Oremus wskazuje na Twitterze, algorytmiczne królicze nory mogą również doprowadzić ludzi do pozytywnych treści.
Film ma wiele szczegółów i wizualizacji, więc jest to dobry sposób na ogarnięcie „magii” działania TikTok. Obejrzyj film powyżej lub na WSJ teren — choć ostrzegam, że zawiera klipy z TikToks, które odnoszą się do depresji, samobójstw i zaburzeń odżywiania.