Twitter rozszerza swój program sprawdzania faktów oparty na crowdsourcingu o obrazy, wkrótce po tym, jak fałszywy obraz stał się wirusowy, twierdząc, że pokazuje „eksplozję” w pobliżu Pentagonu.
Notatki społeczności, które są generowane przez użytkowników i pojawiają się pod tweetami, były wprowadzony aby dodać kontekst do potencjalnie wprowadzających w błąd treści na Twitterze. Teraz współtwórcy będą mogli dodawać informacje konkretnie związane z obrazem, a ten kontekst zostanie wypełniony pod „ostatnimi i przyszłymi pasującymi obrazami”, według firmy.
W ogłoszeniu Twitter wyraźnie wspomina o fałszywych obrazach generowanych przez sztuczną inteligencję, które są kombinacją mylących, przerażających i zabawnych, ponieważ stały się wirusowe na platformie. Na przykład fałszywe zdjęcie eksplozji Pentagonu udostępniane przez konta z niebieskim zweryfikowanym znacznikiem wyboru w zeszłym tygodniu, z których jeden udawał, że jest powiązany Wiadomości Bloomberga. W mniej przerażającym przykładzie obraz wygenerowany przez sztuczną inteligencję Papież Franciszek wygląda jak uliczna bestia krążyły i stały się wirusowe, zanim wiele osób dowiedziało się, że to fałszywka.
Użytkownicy Twitter Community Notes będą mogli określić, czy dodają kontekst do samego tweeta, czy do obrazu, który się w nim znajduje. Jak dotąd funkcja dotyczy tylko pojedynczych obrazów, chociaż firma twierdzi, że pracuje nad jej rozszerzeniem do filmów i postów z wieloma obrazami. Twitter ostrzega, że notatki prawdopodobnie nie pojawią się pod wszystkimi pasującymi obrazami, ponieważ początkowo będą „błądzić po stronie precyzji”.