Sztuczne podróbki AI są przerażająco łatwe do wykonania


W 1996 roku, w wieku 10 lat, grałem w grę komputerową w domu przyjaciela o nazwie Spycraft: świetna gra. W grze wcielasz się w agenta CIA prowadzącego śledztwo w sprawie zamachu; aby wprowadzić podejrzanego w błąd podczas przesłuchania, masz możliwość sfałszowania zdjęcia. Ten proces zaskoczył mój 10-letni umysł — tak bardzo, że przypomniałem sobie, jak potężna była ta minigra przez te wszystkie lata. Chociaż był rozmyty i pikselowany, edytor zdjęć, który pojawił się w Spycraft było trochę podobne do tego, czym pewnego dnia stanie się Adobe Photoshop. W 1996 roku wydawało się, że to szpiegostwo i oszustwo. W 2023 roku jest to zupełnie przyziemne. Zmiana zdjęcia nie jest trudna ani kosztowna — już nie. Każdy może to zrobić, w wyniku czego wszyscy zaakceptowaliśmy fakt, że nie możemy ufać żadnemu obrazowi, który widzimy.

Technologia deepfake już udowodniła, że ​​nie możemy ufać również nagraniom wideo i audio. A rozpowszechnienie generatywnej sztucznej inteligencji tylko ułatwiło tworzenie takich deepfake’ów. Wszyscy musimy przyzwyczaić się do nowej rzeczywistości — i to szybko.

Genna Bain, żona nieżyjącego już YouTubera Johna „TotalBiscuit” Baina, opublikowane na Twitterze w zeszłym tygodniu o nowym problemie, przed którym stoi dzięki postępowi technologii sztucznej inteligencji: „Dzisiaj było fajnie. Stoję przed koniecznością usunięcia z internetu wszystkich treści mojego zmarłego męża. Najwyraźniej ludzie uważają, że używanie jego biblioteki do trenowania sztucznej inteligencji głosowej w celu promowania komentarzy społecznych i poglądów politycznych jest w porządku”. W odpowiedzi otrzymała wyrazy współczucia i prośby fanów męża o zachowanie jego internetowej spuścizny.

Ale tutaj jest problem. Nie ma praktycznego sposobu, aby Genna Bain lub ktokolwiek inny na jej stanowisku mógłby odpowiednio uniemożliwić komukolwiek stworzenie fałszywego klipu wideo lub audio Johna Baina. tylko kilka minut dźwięku są niezbędne do wyszkolenia sztucznej inteligencji do naśladowania głosu; w przypadku deepfake’u wideo potrzebujesz głównie materiału filmowego wiele wyrazów twarzy i kątów. Tak więc, jeśli chcesz zapobiec pojawieniu się w deepfake, musisz usunąć każdy wizualny i dźwiękowy zapis swojej egzystencji, co dla każdego, kto używa smartfona, jest tak bliskie niemożliwości, że równie dobrze może Być niemożliwe. Jest to jeszcze bardziej prawdziwe w przypadku osoby publicznej, takiej jak Bain, który gościł w programach i podcastach, których jego żona niekoniecznie ma możliwość usunięcia, i którego twarz i głos zostały już zapisane na zawsze na dyskach twardych jego fanów na całym świecie. świat.

W latach 90. i 2000. Photoshop umożliwił ludziom wklejanie twarzy celebrytów na nagie ciała innych ludzi, a w 2018 r. opinia publiczna dowiedziała się, jak można wykorzystać technologię sztucznej inteligencji do tworzenia pornografia wideo, która zdawała się przedstawiać celebrytów. Od tego czasu technologia staje się coraz bardziej dostępna. Googlowanie „darmowej aplikacji deepfake” dostarczy mnóstwo opcji oprogramowania do edycji. W 2023 roku ta technologia jest prawdopodobnie nadal używana do tworzenia porno z celebrytami, tak jak to było w 2018 roku, ale obecnie ludzie używają jej również do sprawić, by celebryci mówili głupstwa. Internet zawsze działał na porno, ale działa też na memach, więc to utwory.

Jeśli staniesz się wystarczająco sławny, zostaniesz odczłowieczony i uprzedmiotowiony w ten sposób, a twoi fani będą zaskoczeni i zdezorientowani, jeśli będziesz się temu sprzeciwiać. Ty też nie będziesz w stanie tego powstrzymać. Ale to nie jest artykuł, w którym staram się przekonać ludzi, aby żałowali sławnych ludzi. (To także przegrana bitwa, chociaż czasami próbuję toczyć.) Zamiast tego jest to artykuł, w którym próbuję przekonać ludzi, aby nie ufali filmowi i dźwiękowi, które widzą i słyszą.

Reklama

Przyzwyczajenie się do istnienia Photoshopa zajęło nam dużo czasu. Widząc obraz, który został sfałszowany w sprytny sposób, nadal może wprowadzić w błąd inteligentną, rozsądną osobę, aby uwierzyła w coś, co nie jest prawdą. Ludzką naturą jest chcieć wierzyć w coś, co wygląda na prawdziwe; w końcu zobaczyć znaczy uwierzyć, prawda? To powiedziawszy, przeżyłem rozkwit Photoshopa i dlatego wierzę, że my też się do tego dostosujemy.

Nie wiem, jak będzie wyglądać przyszłość ani jakiego rodzaju regulacji będziemy potrzebować, aby zaradzić tej sytuacji. Ale wiem jedno: już tu jest. Żyjemy w świecie, w którym tego rodzaju fałszerstwo jest nie tylko możliwe, ale wręcz absurdalnie łatwe. Teraz musimy zaakceptować, że to już jest i przejść do rzeczywistości, w której nasz sceptycyzm obejmuje jeszcze więcej rodzajów oszustw.

Ale hej, przynajmniej memy będą świetne.





Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Zuckerberg: Meta zajmie lata, zanim zacznie zarabiać na generatywnej sztucznej inteligencji

Trwa gorączka złota generatywnej sztucznej inteligencji – nie należy się jednak spodziewać, że w najbliższym czasie przyniesie ona zyski.Firma jest już całkiem rentowna,...

Opcja testowania wątków umożliwiająca użytkownikom automatyczne archiwizowanie starych postów

Meta eksperymentowała z wieloma nowymi funkcjami Threads, swojej platformy mikroblogowania. Teraz szef Instagrama Adam Mosseri ujawnił w środę, że platforma rozpoczęła testowanie...

Kiedy wychodzi Manor Lords?

Panowie dworscy to średniowieczna gra polegająca na budowaniu miast i zarządzaniu, opracowywana w całości przez jednoosobowy zespół (nazywa się Greg...
Advertisment