Facebook zawsze był firmą nastawioną przede wszystkim na rozwój. Więcej użytkowników i większe zaangażowanie oznacza większe przychody. Koszt tej jednomyślności jest jasno określony ta wspaniała historia z Przegląd technologii MIT. Opisuje, w jaki sposób próby zwalczania dezinformacji podejmowane przez zespół AI firmy za pomocą uczenia maszynowego były najwyraźniej hamowane przez niechęć Facebooka do ograniczania zaangażowania użytkowników.
„Jeśli model zbytnio zmniejsza zaangażowanie, zostaje odrzucony. W przeciwnym razie jest wdrażany i stale monitorowany ”- pisze autorka Karen Hao o modelach uczenia maszynowego Facebooka. „Ale takie podejście szybko spowodowało problemy. Modele maksymalizujące zaangażowanie sprzyjają również kontrowersjom, dezinformacji i ekstremizmowi: po prostu ludzie lubią oburzające rzeczy ”.
Na Świergot, Hao zauważył, że artykuł nie dotyczy „skorumpowanych ludzi [doing] zepsute rzeczy ”. Zamiast tego mówi: „Chodzi o dobrych ludzi, którzy naprawdę próbują postępować właściwie. Ale są uwięzieni w zgniłym systemie, starając się jak najlepiej popchnąć status quo, które nie ustąpi ”.
Historia dodaje również więcej dowodów na zarzuty, że chęć uspokojenia konserwatystów podczas prezydentury Donalda Trumpa przez Facebooka doprowadziła do przymknięcia oczu na prawicową dezinformację. Wydaje się, że stało się to przynajmniej częściowo za sprawą Joela Kaplana, byłego członka administracji George’a W. Busha, który jest obecnie wiceprezesem Facebooka ds. Globalnej polityki publicznej i „republikaninem najwyższej rangi”. Jak pisze Hao:
Wszyscy użytkownicy Facebooka mają na swoim profilu około 200 „cech”. Obejmują one różne wymiary przesłane przez użytkowników lub oszacowane przez modele uczenia maszynowego, takie jak rasa, skłonności polityczne i religijne, klasa społeczno-ekonomiczna i poziom wykształcenia. Zespół Kaplana zaczął wykorzystywać cechy do tworzenia niestandardowych segmentów użytkowników, które odzwierciedlały w dużej mierze konserwatywne zainteresowania: na przykład użytkowników, którzy angażowali się w konserwatywne treści, grupy i strony. Następnie przeprowadzali specjalne analizy, aby zobaczyć, jak decyzje dotyczące moderacji treści wpłyną na posty z tych segmentów, według byłego badacza, którego praca była przedmiotem tych recenzji.
Dokumentacja Fairness Flow, którą później napisał zespół Responsible AI, zawiera studium przypadku dotyczące wykorzystania narzędzia w takiej sytuacji. Przy podejmowaniu decyzji, czy model dezinformacji jest sprawiedliwy w odniesieniu do ideologii politycznej, zespół napisał, że „sprawiedliwość” tak nie oznacza, że model powinien w równym stopniu wpływać na konserwatywnych i liberalnych użytkowników. Jeśli konserwatyści publikują większą część dezinformacji, zgodnie z opinią publiczną, model powinien oznaczać większą część konserwatywnych treści. Jeśli liberałowie publikują więcej dezinformacji, powinno to również częściej oznaczać ich treść.
Jednak członkowie zespołu Kaplana przyjęli dokładnie odwrotne podejście: przyjęli „uczciwość”, aby oznaczać, że te modele nie powinny wpływać bardziej na konserwatystów niż na liberałów. Gdy model to zrobił, zaprzestaliby jego wdrażania i zażądali zmiany. Pewnego razu zablokowali wykrywacz dezinformacji medycznych, który znacznie zmniejszył zasięg kampanii antyszczepionkowych, powiedział mi były badacz. Powiedzieli naukowcom, że model nie może zostać wdrożony, dopóki zespół nie naprawi tej rozbieżności. Ale to skutecznie sprawiło, że model stał się bez znaczenia. „W takim razie nie ma sensu” – mówi badacz. Tak zmodyfikowany model „nie miałby dosłownie żadnego wpływu na rzeczywisty problem” dezinformacji.
Historia mówi również, że prace badaczy sztucznej inteligencji Facebooka nad problemem błędu algorytmicznego, w którym modele uczenia maszynowego w sposób niezamierzony dyskryminują określone grupy użytkowników, zostały podjęte, przynajmniej częściowo, aby zapobiec tym samym oskarżeniom o anty-konserwatywne nastroje i uprzedzić potencjalne regulacje rządu USA. Jednak przeznaczanie większych zasobów na stronniczość oznaczało ignorowanie problemów związanych z dezinformacją i mową nienawiści. Pomimo deklaracji firmy na temat uczciwości sztucznej inteligencji, główna zasada, mówi Hao, jest nadal taka sama jak zawsze: wzrost, wzrost, wzrost.
[T]ocenianie algorytmów uczciwości jest nadal w dużej mierze opcjonalne na Facebooku. Żaden z zespołów, które pracują bezpośrednio nad kanałem aktualności, usługami reklamowymi lub innymi produktami Facebooka, nie jest do tego zobowiązany. Zachęty płacowe są nadal powiązane z miernikami zaangażowania i wzrostu. I chociaż istnieją wytyczne dotyczące tego, której definicji uczciwości należy użyć w danej sytuacji, nie są one egzekwowane.
Możesz przeczytać całą historię Hao pod adresem Przegląd technologii MIT tutaj.