Kiedy OpenAI wypuściło swój plik nowa aplikacja wideo generowana przez sztuczną inteligencję Sora w zeszłym tygodniu wprowadzono politykę rezygnacji dla posiadaczy praw autorskich – firmy medialne musiałyby wyraźnie zaznaczyć, że nie chcą, aby ich postacie generowane przez sztuczną inteligencję pojawiały się w aplikacji. Ale po dniach nazistowskiego SpongeBoba, zbrodniczego Pikachu i filozofującego Sorę Ricka i Morty’ego, dyrektora generalnego OpenAI Sama Altmana ogłoszony firma zmieniłaby kurs i „pozwoliłaby posiadaczom praw zdecydować, jak postępować”.
W odpowiedzi na pytanie, dlaczego OpenAI zmieniło swoją politykę, Altman odpowiedział, że wynika to z rozmów z zainteresowanymi stronami i zasugerował, że nie spodziewał się takiego oburzenia.
„Myślę, że teoria tego, co ludzie będą odczuwać, a potem fakt, że zobaczyli tę rzecz, ludzie mieli różne reakcje” – powiedział Altman. „Wydawało mi się, że obrazy różnią się bardziej, niż ludzie się spodziewali”.
Aplikacja Sora przypominająca TikTok oferuje nieskończone przewijanie i możliwość tworzenia 10-sekundowych filmów — z dźwiękiem — o praktycznie wszystkim, w tym o Tobie wygenerowanym przez sztuczną inteligencję (nazywanym „kameą”) i każdej osobie, która wyraziła zgodę na wykorzystanie jej podobizny. Chociaż stara się ograniczyć przedstawianie osób, których nie ma w aplikacji, jej podpowiedzi tekstowe okazały się więcej niż zdolne do generowania znaków chronionych prawem autorskim.
Altman powiedział, że wielu posiadaczy praw jest podekscytowanych, ale chcą „znacznie większej kontroli”, dodając, że Sora „bardzo szybko zyskała popularność… Pomyśleliśmy, że możemy zwolnić tempo, ale tak się nie stało”.
„Oczywiście naprawdę zależy nam na posiadaczach praw i ludziach” – powiedział. „Chcemy stworzyć te dodatkowe elementy sterujące, ale myślę, że wiele głównych treści będzie dostępnych z ograniczeniami dotyczącymi tego, co mogą, a czego nie”.
Altman stwierdził, że wśród pierwszych użytkowników systemu był zaskoczony, że ludzie mieli „pośrednie” odczucia w związku z umożliwieniem ludziom tworzenia filmów generowanych przez sztuczną inteligencję z wykorzystaniem ich podobizny na Sorze. Powiedział, że spodziewa się, że ludzie albo będą chcieli upublicznić swój występ, albo nie, ale nie oznacza to, że będzie w nim aż tak wiele niuansów i dlatego firma wprowadziła ostatnio więcej ograniczeń. Altman powiedział, że wiele osób zmieniło zdanie na temat tego, czy chcą, aby ich występy były publiczne, czy nie, ale „nie chcą, aby ich występy zawierały obraźliwe treści lub rzeczy, które uważają za głęboko problematyczne”.
Bill Peebles, szef Sory w OpenAI, opublikowany na X W niedzielę zespół „słyszał od wielu osób, które chcą udostępnić swoje epizody wszystkim, ale zachować kontrolę nad sposobem ich wykorzystania”, dodając, że teraz użytkownicy mogą określić, w jaki sposób ich epizody będą wykorzystywane, za pomocą instrukcji tekstowych wysyłanych do Sory, takich jak „nie umieszczaj mnie w filmach zawierających komentarze polityczne” lub „nie pozwól mi powiedzieć tego słowa”.
Właściciele praw chcą „znacznie większej kontroli” nad Sorą
Peebles powiedział również, że zespół pracuje nad sposobami, aby znak wodny Sory na pobranych filmach był „wyraźniejszy i bardziej widoczny”. Wiele osób wyraziło obawy dotyczące kryzys dezinformacji może to naturalnie pochodzić z hiperrealistycznych filmów generowanych przez sztuczną inteligencję — zwłaszcza gdy znak wodny oznaczający, że zostały wygenerowane przez sztuczną inteligencję, nie jest zbyt duży i można go łatwo usunąć, jak wynika z samouczków wideo krążących w Internecie.
„Wiem też, że ludzie już szukają sposobów, aby go usunąć” – powiedział Altman o znaku wodnym podczas poniedziałkowej sesji pytań i odpowiedzi.
Podczas przemówienia programowego Altman na DevDay powiedział, że firma natychmiast wypuści wersję zapoznawczą Sora 2 w API OpenAIumożliwiając programistom dostęp do tego samego modelu, który napędza Sora 2, i tworzenie ultrarealistycznych filmów generowanych przez sztuczną inteligencję do własnych celów, rzekomo bez żadnego znaku wodnego. Podczas pytań i odpowiedzi z reporterami, zapytany o to, w jaki sposób firma wdroży zabezpieczenia Sora 2 w API, Altman nie odpowiedział konkretnie na pytanie.
Altman powiedział, że był zaskoczony wielkością zapotrzebowania na generowanie filmów wyłącznie na potrzeby czatów grupowych, czyli udostępniania ich tylko jednej osobie lub garstce osób, ale nie szerzej. Mimo że cieszy się to popularnością, stwierdził, „nie pasuje do sposobu działania obecnej aplikacji”.
Progi zwalniające podczas startu potraktował jako możliwości uczenia się. „Niedługo będziemy mieli jedyny dobry model wideo na rynku, a będzie mnóstwo filmów bez naszych zabezpieczeń i nie ma w tym nic złego, tak działa świat” – powiedział Altman, dodając: „Możemy wykorzystać to okno, aby społeczeństwo naprawdę zrozumiało: «Hej, zmieniły się warunki działania, w niektórych przypadkach możemy teraz wygenerować prawie nierozróżnialne wideo i musisz być na to przygotowany”.
Altman powiedział, że ma wrażenie, że ludzie nie zwracają uwagi na technologię OpenAI, kiedy ludzie w firmie o niej mówią, a dopiero wtedy, gdy ją wypuszczają. „Musimy mieć… tego rodzaju współewolucję technologiczną i społeczną” – powiedział Altman. “Wierzę, że to działa, ale tak naprawdę nie znam nic innego, co działa. Wyraźnie pojawią się wyzwania dla społeczeństwa, które będzie musiało zmagać się z tą jakością i tym, co stanie się znacznie lepsze dzięki generacji wideo. Ale jedynym sposobem, jaki znamy, aby pomóc to złagodzić, jest umożliwienie światu doświadczenia tego i zorientowania się, jak to będzie wyglądać. “
„Bez wątpienia staną przed społeczeństwem wyzwania związane z tą jakością”
To kontrowersyjne podejście, zwłaszcza dla dyrektora generalnego AI. Odkąd sztuczna inteligencja istnieje, była ona wykorzystywana w sposób, który nieproporcjonalnie wpływa na mniejszości i bezbronne populacje – począwszy od bezprawny aresztowania Do Wygenerowane przez sztuczną inteligencję porno zemsty. OpenAI ma pewne bariery zabezpieczające przed Sorą, ale jeśli historia – i ostatni tydzień – będzie jakimkolwiek przewodnikiem, ludzie znajdą sposób, aby je obejść. Narzędzia do usuwania znaku wodnego cieszą się już coraz większą popularnością w Internecie – niektóre osoby korzystają z narzędzi typu „magiczna gumka”, a inne opracowują własne sposoby skutecznego usuwania znaku wodnego. Na razie podpowiedzi tekstowe nie pozwalają na generowanie konkretnej twarzy bez pozwolenia, ale ludzie tak robią rzekomo obszedł już tę zasadę generowanie wystarczająco bliskich przybliżeń danej osoby, aby wzbudzić strach lub grozić, oraz kręcić sugestywne filmy, w tym filmy przedstawiające kobiety trzymające przedmioty przypominające wibratory.
Zapytany, czy plany OpenAI przekładają się na podejście „działaj szybko i niszcz”, Altman odpowiedział: „Wcale nie”, dodając, że obecna krytyka użytkowników pod adresem Sory skłania się obecnie ku stwierdzeniu, że firma jest „zbyt restrykcyjna” i „cenzura”. Powiedział, że firma rozpoczynała wdrażanie konserwatywnie i „znajdzie sposoby, aby z czasem pozwolić na więcej”.
Altman powiedział, że osiągnięcie zysku na Sorze „nie znajduje się na liście 10 moich głównych obaw, ale… oczywiście pewnego dnia musimy osiągnąć bardzo zyskowność, a my jesteśmy pewni i cierpliwi, że to osiągniemy”. Powiedział, że obecnie spółka znajduje się w fazie „agresywnego inwestowania”.
Niezależnie od początkowych trudności Greg Brockman, prezes OpenAI, powiedział, że był zaskoczony krzywą adopcji Sory – i że była ona jeszcze bardziej intensywna niż w przypadku ChatGPT. Utrzymuje się na szczycie listy bezpłatnych aplikacji w sklepie Apple App Store. „Myślę, że to wskazuje trochę na przyszłość — to rzecz, do której ciągle wracamy: będziemy potrzebować więcej obliczeń” – powiedział. „W pewnym sensie jest to lekcja numer jeden płynąca z… [Sora] wystartować jak dotąd.”
Zasadniczo była to zachęta dla Stargate, spółki joint venture OpenAI z SoftBank i Oracle, do wzmocnienia infrastruktury sztucznej inteligencji w USA, zaczynając od inwestycji o wartości 100 miliardów dolarów i zwiększając ją do 500 miliardów dolarów w ciągu czterech lat. Prezydent Donald Trump poparł to przedsięwzięcie, podobnie jak OpenAI ogłoszony kilka nowych centrów danych w Teksasie, Ohio i Nowym Meksyku. The projekty energochłonne budzą kontrowersje i często mogą startować z personelem typu kilkaset osób po początkowej budowie, pomimo obietnic utworzenia miejsc pracy na dużą skalę.
Ale OpenAI idzie pełną parą. W poniedziałek zawarł umowę z producentem chipów AMD, która może pozwolić OpenAI na przejęcie 10 procent udziałów. Kilka godzin później podczas pytań i odpowiedzi z reporterami zapytano Altmana, jak bardzo firma jest zainteresowana zbudowaniem własnego chipa. „Jesteśmy zainteresowani pełnym stosem infrastruktury sztucznej inteligencji” – odpowiedział. W innym momencie powiedział reporterom, że powinni „spodziewać się znacznie więcej” na temat OpenAI na temat infrastruktury.
Podczas sesji dyrektorzy OpenAI wielokrotnie podkreślali brak mocy obliczeniowej i to, jak bardzo może on blokować OpenAI i jego konkurentom możliwość oferowania usług na dużą skalę.
„Pytanie: «Ile obliczeń potrzebujesz?» to trochę jak pytanie: „Ilu pracowników potrzebujesz?” – powiedział Brockman. „Odpowiedź jest taka, że zawsze możesz uzyskać więcej z większej ilości”. W tej chwili najnowszym atutem jest większa możliwość głębokiego fałszowania znajomych.