Jednostka Jigsaw firmy Google udostępnia kod narzędzia do zwalczania nękania o otwartym kodzie źródłowym o nazwie Menedżer ds. nękania. Narzędzie, przeznaczone dla dziennikarzy i innych osób publicznych, wykorzystuje interfejs Jigsaw Perspective API, aby umożliwić użytkownikom przeglądanie potencjalnie obraźliwych komentarzy na platformach społecznościowych, począwszy od Twittera. Debiutuje jako kod źródłowy, na którym deweloperzy mogą budować, a następnie w czerwcu zostanie uruchomiony jako funkcjonalna aplikacja dla dziennikarzy Thomson Reuters Foundation.
Harassment Manager może obecnie współpracować z interfejsem API Twittera, aby łączyć opcje moderacji — takie jak ukrywanie odpowiedzi na tweety oraz wyciszanie lub blokowanie kont — z zbiorczym systemem filtrowania i raportowania. Perspektywa sprawdza język komunikatów dla poziomów „toksyczności” w oparciu o elementy takie jak groźby, obelgi i wulgaryzmy. Sortuje wiadomości w kolejki na pulpicie nawigacyjnym, gdzie użytkownicy mogą adresować je w partiach, a nie pojedynczo za pomocą domyślnych narzędzi do moderacji Twittera. Mogą zdecydować się na rozmycie tekstu wiadomości, gdy to robią, dzięki czemu nie muszą czytać każdej z nich, a oprócz korzystania z automatycznie generowanych kolejek mogą wyszukiwać słowa kluczowe.
Harassment Manager umożliwia również użytkownikom pobranie samodzielnego raportu zawierającego obraźliwe wiadomości; tworzy to papierowy ślad dla ich pracodawcy lub, w przypadku nielegalnych treści, takich jak bezpośrednie groźby, organów ścigania. Na razie jednak nie ma samodzielnej aplikacji, którą użytkownicy mogą pobrać. Zamiast tego programiści mogą swobodnie tworzyć aplikacje, które zawierają jego funkcje, a korzystające z nich usługi zostaną uruchomione przez partnerów, takich jak Thomson Reuters Foundation.
Jigsaw ogłosiła Menedżera ds. nękania w Międzynarodowym Dniu Kobiet i określiła narzędzie jako szczególnie istotne dla dziennikarek, które spotykają się z nadużyciami ze względu na płeć, podkreślając wkład „dziennikarzy i aktywistek z dużą liczbą użytkowników na Twitterze”, a także organizacji non-profit, takich jak Międzynarodowa Fundacja Mediów Kobiet i Komitet Ochrony Dziennikarzy. W średnim poście, zespół twierdzi, że ma nadzieję, że programiści będą mogli dostosować go do innych zagrożonych użytkowników mediów społecznościowych. „Mamy nadzieję, że ta technologia zapewni zasoby dla osób, które stoją w obliczu nękania w Internecie, zwłaszcza dziennikarzy, aktywistek, polityków i innych osób publicznych, które mają do czynienia z nieproporcjonalnie wysoką toksycznością w Internecie” – czytamy w poście.
Google już wcześniej wykorzystywał perspektywę do automatycznej moderacji. W 2019 r. wydał rozszerzenie przeglądarki o nazwie Tune które pozwalają użytkownikom mediów społecznościowych uniknąć oglądania wiadomości, które mogą być toksyczne, i jest używany przez wiele platform komentujących (w tym Vox Media’s Coral) jako uzupełnienie ludzkiej moderacji. Ale jak zauważyliśmy wokół wydanie Perspektywy i Tune, model analizy języka historycznie był daleki od doskonałości. Czasami błędnie klasyfikuje treści satyryczne lub nie wykrywa obraźliwych wiadomości, a sztuczna inteligencja w stylu układanki może nieumyślnie skojarzyć terminy jak „niewidomy” lub „głuchy” – które niekoniecznie są negatywne – z toksycznością. Sama Jigsaw również została skrytykowana za: toksyczna kultura w miejscu pracychociaż firma Google zakwestionowała te roszczenia.
w odróżnieniu Moderacja oparta na sztucznej inteligencji w serwisach takich jak Twitter i Instagram jednak Harassment Manager nie jest funkcją moderacji po stronie platformy. Najwyraźniej jest to narzędzie do sortowania, które pomaga zarządzać czasami przytłaczającą skalą opinii w mediach społecznościowych, coś, co może być istotne dla ludzi daleko poza sferą dziennikarstwa — nawet jeśli nie mogą na razie z niego korzystać.