Kilka artykułów niedawno odkrytych na Ocenionywitryna firmy Gannett z recenzjami produktów, wywołuje coraz powszechniejszą debatę: czy zrobiono to przy użyciu narzędzi sztucznej inteligencji, czy przez człowieka?
Tekst jest chaotyczny, powtarzalny i czasami bezsensowny. „Przed zakupem produktu należy najpierw rozważyć dopasowanie, ustawienia oświetlenia i dodatkowe funkcje oferowane przez każdą opcję” – czytamy artykuł zatytułowany „Najlepsza lampa talia 2023.” „Zanim kupisz szwedzkie ściereczki do naczyń, możesz zadać sobie kilka pytań” mówi inny. Na każdej stronie znajduje się sekcja „Zalety/wady produktu”, która zamiast przedstawiać zalety i wady, zawiera tylko jedną listę z kilkoma funkcjami. Strony są wypełnione obrazami w niskiej rozdzielczości, infografikami i dziesiątkami linków do list produktów Amazon. (W chwili pisania tego tekstu artykuły najwyraźniej zostały usunięte.)
Jest to rodzaj treści, który czytelnicy kojarzą ze sztuczną inteligencją i nie był to pierwszy kontakt Gannetta z kontrowersjami na jego temat. W sierpniu firma przeprowadziła nieudany „eksperyment” z wykorzystaniem sztucznej inteligencji do generowania artykułów sportowych, w wyniku czego powstały stosy historii zawierających niezręczne sformułowania, takie jak „bliskie spotkania sportowe”. Gannett przerwał używanie narzędzia i stwierdził, że dokona ponownej oceny narzędzi i procesów. Ale we wtorek NewsGuild of New York — związek reprezentujący Oceniony pracownicy – udostępnione zrzuty ekranu artykułów zakupowych, na które natknęli się pracownicy, nazywając to najnowszą próbą Gannetta wykorzystania narzędzi sztucznej inteligencji do tworzenia treści.
Gannett upiera się jednak, że nowe „recenzje” nie zostały stworzone przy użyciu sztucznej inteligencji. Zamiast tego treść została stworzona przez „zewnętrznych freelancerów zatrudnionych przez partnera agencji marketingowej” – powiedziała Lark-Marie Anton, dyrektor ds. komunikacji w firmie Gannett.
„Strony zostały wdrożone bez dokładnych zastrzeżeń partnerów i nie spełniały naszych standardów redakcyjnych. Aktualizacje zostały opublikowane [on Tuesday]– powiedział Anton Krawędź w e-mailu. Innymi słowy, artykuły są grą marketingu afiliacyjnego wyprodukowaną przez pracowników innej firmy.
Nowe zastrzeżenie dotyczące artykułów brzmi: „Te strony są publikowane w ramach partnerstwa pomiędzy Reviewed a ASR Group Holdings, wiodącą firmą zajmującą się marketingiem cyfrowym. Prezentowane produkty powstały na podstawie recenzji konsumentów i wiedzy specjalistycznej w danej kategorii. Poradniki zakupowe są opracowywane przez zespół redakcyjny Grupy ASR w celach marketingowych.”
Jednak jest coś dziwnego w recenzjach. Według starych ogłoszeń o pracęGrupa ASR posługuje się również nazwą AdVon Commerce – firma specjalizująca się w „rozwiązaniach ML/AI dla handlu elektronicznego”, na jego stronie LinkedIn. Pracownik AdVon Commerce wymieniony na liście Oceniony Witryna internetowa podaje na LinkedIn, że „opanowali sztukę podpowiadania i edytowania tekstu generatywnego AI” oraz że „organizują i szkolą zespół 15 copywriterów w czasie przejścia na ChatGPT i tekst generatywny AI”.
Co więcej, autorzy przypisali Oceniony są trudne do wyśledzenia — wydaje się, że niektóre z nich nie mają innych opublikowanych prac ani stron LinkedIn. W postach na X, Oceniony zastanawiał się personel„Czy ci ludzie w ogóle istnieją?”
Zapytany o firmę marketingową i wykorzystanie przez nią narzędzi AI, Anton powiedział, że Gannett potwierdził, że treści nie zostały utworzone przy użyciu sztucznej inteligencji. AdVon Commerce nie odpowiedział na prośbę o komentarz.
„To naprawdę osłabia to, co robimy”
Konflikt wokół historii o „być może AI”, a może nie „AI” następuje zaledwie kilka tygodni później pracownicy związkowi przy Oceniony odszedł z pracy w celu ustalenia terminów sesji przetargowych z Gannettem. W przesłanym e-mailu oświadczeniu Oceniony związek oświadczył, że poruszy tę kwestię podczas pierwszej rundy negocjacji w nadchodzących dniach.
„To próba osłabienia i zastąpienia członków związku, niezależnie od tego, czy korzystają ze sztucznej inteligencji, podwykonawców firmy marketingowej, czy też kombinacji obu. W najbliższej przyszłości żądamy, aby kierownictwo wycofało publikację wszystkich tych artykułów i wydało oficjalne przeprosiny” – czytamy w oświadczeniu.
„Te posty podważają naszą wiarygodność, podważają naszą uczciwość jako reporterów” – Michael Desjardin, starszy specjalista ds. Ocenionypowiedział Krawędź. Desjardin twierdzi, że opublikowanie recenzji stanowi odwet za wcześniejszy strajk.
Według Desjardina kierownictwo Gannetta nie powiadomiło pracowników o publikacji artykułów i zorientowali się dopiero, gdy w piątek natknęli się na te posty. Pracownicy zauważyli literówki w nagłówkach; dziwne, maszynowe sformułowanie; oraz inne „znaki ostrzegawcze”, które nie spełniają standardów redakcyjnych dziennikarzy.
„Ja i reszta ludzi w oddziale czujemy, że – jeśli rzeczywiście tak się dzieje – to naprawdę osłabia to, co robimy” – powiedział Desjardin Krawędź rzekomego używania przez Gannetta narzędzi sztucznej inteligencji. „To tylko kwestia tego, że istniejemy na tej samej platformie, na której publikujemy”.
Niejasność między tym, co wygenerowała sztuczna inteligencja, a tym, co zostało stworzone przez ludzi, to powracający temat w roku 2023, zwłaszcza w firmach medialnych. Podobna dynamika pojawił się o godz CNET wcześniej w tym roku, rozpoczęło się od publikacji artykułów generowanych przez sztuczną inteligencję tuż obok prac dziennikarzy. Personel miał niewiele szczegółów na temat sposobu wytwarzania lub sprawdzania faktów artykułów wygenerowanych przez sztuczną inteligencję. Ponad połowa artykułów zawierała błędyI CNET nie ujawniło wyraźnie, że sztuczna inteligencja była używana, aż do doniesień medialnych.
„Wydaje mi się, że te rzeczy miały się samokamuflować i po prostu wtapiać w to, co robimy na co dzień” – mówi Desjardin o Oceniony treść.