Generatywna sztuczna inteligencja w przełomowym momencie z falą wyzwań prawnych


Gdziekolwiek teraz spojrzysz, nie da się uniknąć istnienia generatywnej sztucznej inteligencji (AI). Od ChatGPT po twórców obrazów, takich jak Stable Diffusion, branża rozrosła się niemal od zera do globalnego superprzemysłu. Ale nie wszyscy są szczęśliwi. W styczniu 2023 roku firma Getty Images zajmująca się licencjonowaniem obrazów wszczęła postępowanie sądowe przeciwko właścicielom aplikacji do tworzenia obrazów AI Stable Diffusion w związku z rzekomym naruszeniem praw autorskich.

To tylko jedna z rosnącej liczby spraw – w tym skarg prawnych przeciwko obrazowej sztucznej inteligencji Midjounrey I Flagowy Open AI wspierany przez Microsoft – które mogą zadecydować o przyszłości technologii.

Ale te batalie prawne niosą ze sobą coś więcej niż tylko przyszłość generatywnej sztucznej inteligencji i mogą wpłynąć na całą przyszłość sztuki sztucznej inteligencji, tworzenie treści i możliwość kontrolowania sposobu wykorzystywania naszych danych osobowych.

Powody sprawy sądowej są z pozoru dość proste. Getty Images, jako platforma licencjonowania obrazów, pobiera opłatę od użytkowników za dostęp do obrazów lub korzystanie z nich. System ten stanowi poważny problem dla generatywnych systemów sztucznej inteligencji, takich jak ChatGPT lub Stable Diffusion, które polegają na masowym zbieraniu danych w celu nauczenia swoich systemów, jak odpowiadać na monity.

„Trenowanie tych generatywnych modeli sztucznej inteligencji wymaga ogromnych ilości danych” — mówi Laura Houston, ekspertka w dziedzinie prawa autorskiego i partnerka w firmie prawniczej Slaughter and May. „Na przykład w modelach zamiany tekstu na obraz istnieje potrzeba zasilenia go setkami milionów punktów danych, aby nauczyć model znajdowania statystycznych relacji między słowami a obrazami”.

Mówiąc najprościej – jeśli twórca obrazu AI chce dowiedzieć się, jak stworzyć zdjęcie, powiedzmy, kurczaka w cylindrze – musi przestudiować jak najwięcej obrazów kurczaków i cylindrów. Sama skala danych potrzebnych do nauczenia się tej umiejętności uniemożliwia sensowne oddzielenie obrazów chronionych prawem autorskim od obrazów nieobjętych prawem autorskim.

Reklama

„Masz własność intelektualną [IP] ryzyko naruszenia, które wynika z wykorzystania tych danych do uczenia modelu AI” – mówi. „Ale wtedy pojawia się również pytanie, co model AI generuje w wyniku i czy na podstawie danych, na których jest szkolony, dane wyjściowe modelu mogą naruszyć IP tych danych wejściowych”.

To wszystko nie jest tylko ćwiczeniem intelektualnym. Prawo autorskie jest tym, co leży u podstaw zdolności wszystkich artystów i twórców treści do ochrony i kontrolowania, a tym samym faktycznego zarabiania na swojej pracy. Jeśli generatywna sztuczna inteligencja będzie w stanie przejść przez to prosto i wykorzystać swoją pracę do szkolenia swoich systemów, może zyskać, dziesiątkując branże kultury na całym świecie.

Ale kwestie prawne i moralne nie kończą się na prawach autorskich. Generatywna sztuczna inteligencja i duże modele językowe coraz częściej padają ofiarą organów regulacyjnych zajmujących się ochroną danych.

Już zrobił to włoski regulator danych zabronił chatbotowi Replika opartemu na Open AI gromadzenia danych w kraju.

„Publicznie dostępne dane to nadal dane osobowe w rozumieniu RODO [General Data Protection Regulation] oraz inne przepisy dotyczące ochrony danych i prywatności, więc nadal potrzebujesz podstawy prawnej do ich przetwarzania” – mówi Robert Bateman, ekspert ds. ochrony danych. „Problem polega na tym, że nie wiem, ile te firmy o tym myślały… Myślę, że to trochę prawna bomba zegarowa”.

Naruszenia danych osobowych są często również dość dziwne. W zeszłym miesiącu, Dziennikarz FT, Dave Lee, dowiedział się, że ChatGPT podaje jego numer Signal (opublikowany na jego koncie na Twitterze) jako własny numer chatbota, a następnie został zalany losowymi wiadomościami. Według Batemana nawet tego rodzaju publicznie publikowane dane podlegają przepisom o ochronie danych.

„Istnieje coś takiego jak prywatność kontekstowa” — mówi. „Możesz umieścić swój numer na Twitterze i nie oczekiwać, że pojawi się w bazie danych w Chinach. To samo tyczy się ciebie [necessarily] oczekując, że stanie się wyjściem chatbotów. Dokładność danych jest jedną z zasad RODO. Jesteś zobowiązany do upewnienia się, że dane osobowe w Twoich procesach są dokładne i aktualne.

„Ale duże modele językowe najwyraźniej mają halucynacje w około 20% przypadków. Na tej podstawie będzie wiele niedokładnych informacji o dystrybuowanych ludziach”.

Ustalanie naruszeń

Ale zarówno w przypadku ochrony danych, jak i własności intelektualnej, głównym problemem jest ustalenie, czy generatywna sztuczna inteligencja rzeczywiście złamała prawo. Sama ilość danych wprowadzanych do tych systemów sprawia, że ​​analizowanie tego, co jest, a co nie jest problematyczne, stanowi problem. Tymczasem dane wyjściowe nigdy nie są absolutną kopią tego, co zostało wprowadzone, co sprawia, że ​​nieco trudniej jest udowodnić naruszenie w większości spraw dotyczących praw autorskich, które zwykle dotyczą bezpośredniego kopiowania.

W tym punkcie duże modele językowe, takie jak ChatGPT i generatywne AI obrazu, takie jak Stable Diffusion, widzą podział. Zniekształcone obrazy generowane przez sztuczną inteligencję, bardziej niż tekst, często niosą bardziej definitywne wskazówki co do danych, które pomogły je stworzyć. Na przykład sprawa Getty pokonuje wiele wyzwań dowodowych w tej dziedzinie, po prostu opierając się na fakcie, że jej własny znak wodny rzekomo pojawiał się na wielu materiałach Stable Diffusion.

„Myślę, że to prawdopodobnie nie przypadek, że wiele z tych początkowych wyzwań prawnych pojawia się w świecie modeli sztucznej inteligencji przetwarzających tekst na obraz” — mówi Houston.

Prawdopodobnie nie jest też przypadkiem, że sprawa została złożona w Wielkiej Brytanii. Stany Zjednoczone, w przeciwieństwie do Wielkiej Brytanii, mają obronę „dozwolonego użytku” przed naruszeniem praw autorskich, co uczyniłoby rzeczy o wiele bardziej przyjaznymi dla dużych twórców sztucznej inteligencji.

Tymczasem Wielka Brytania ma szczególny wyjątek dotyczący eksploracji tekstu i danych w prawie autorskim – ale nie obejmuje on komercyjnego wykorzystania tych naruszeń, co już robią obecne generatywne systemy sztucznej inteligencji.

Nominalnie sugerowałoby to, że dane osobowe i treści tworzone w Wielkiej Brytanii są bezpieczniejsze – ale parlament i rządowy urząd ds.

Ostatecznie nieunikniona więź zarówno dla sądów, jak i decydentów jest taka sama; że muszą teraz wybrać, czy poświęcić ochronę praw autorskich twórców treści (i ochronę prywatności wszystkich) na ołtarzu miliardów, a nawet bilionów funtów wartości ekonomicznej, którą prawdopodobnie zapewni sektor generatywnej sztucznej inteligencji.

Atrybucja

Podczas gdy Houston przytacza przypadek Spotify, gdzie „posiadacze praw i gracze technologiczni byli w stanie ostatecznie osiągnąć lądowanie”, istnieją pewne komplikacje w wypracowaniu podobnego kompromisu tutaj. Uznanie autorstwa – powszechne rozwiązanie w innych przypadkach dotyczących własności intelektualnej – to także walka.

„Myślę, że duży problem tkwi w dużych zbiorach danych zawierających obrazy lub tekst, z których muszą korzystać, i nie wiem, w jaki sposób można by gdzieś przypisać oryginalnych artystów” — mówi Chen Zhu, profesor nadzwyczajny prawa na Uniwersytecie w Birmingham liceum o specjalizacji Prawo Własności Intelektualnej.

Co więcej, ci, z którymi rozmawiał Computer Weekly, pytali, czy jest wykonalne, jeśli nie masz nawet pewności, czy twoje dane osobowe są zbierane, aby poprosić o ich publikację tylko w prawidłowy sposób, nie mówiąc już o upewnieniu się, że nie są wykorzystywane, lub aby firmy ręcznie konsultować się z artystami w sprawie włączenia ich prac do systemów.

Tak czy inaczej, jest mało prawdopodobne, że zobaczymy duży ruch w najbliższym czasie. Prawie wszyscy ci, z którymi rozmawiał Computer Weekly, zgodzili się, że upłyną co najmniej dwa lata, zanim zobaczymy jakiekolwiek postępy w sprawach sądowych wnoszonych przez takich jak Getty, a do tego czasu generatywna sztuczna inteligencja mogła już stać się, jak to ujął Bateman, „zbyt duże, by upaść”.

Rzeczywiście, sektor jest już wspierany przez niektóre duże fundusze. Otwarta sztuczna inteligencja jest obsługiwana na przykład przez firmę Microsoft, a firma Stable Diffusion już to zrobiła zebrał ponad 101 milionów dolarów w gotówce typu venture capital i jest teraz poszukuje wyceny na 4 miliardy dolarów.

Tymczasem jako Zhu notatki, Napster był branżowym „słabszym graczem” bez wsparcia instytucjonalnego i ogromnych sum kapitału podwyższonego ryzyka. Przytacza takie przypadki, jak Google skopiował cyfrowo miliony książek do biblioteki internetowej bez pozwolenia. Pod koniec długiej i kosztownej batalii prawnej z poszkodowanymi autorami, gigant technologiczny wyszedł zwycięsko. „Z moich obserwacji wynika, że ​​firmy takie jak Google były w przeszłości niepokonane w sporach dotyczących praw autorskich i jak dotąd nigdy nie przegrały” — mówi Zhu.

Ostatecznie największą różnicą między sprawą Napstera a tą nową grupą spraw, która prawdopodobnie zadecyduje o wyniku, jest to, że tym razem kwestionowane organizacje mają pieniądze.





Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Senat ponownie zatwierdza program szpiegowski FISA, ale nie przed jego wygaśnięciem o północy

Senat przyjął ustawę ponownie zatwierdzającą art. 720 ustawy o nadzorze wywiadu zagranicznego (FISA), kontrowersyjny program umożliwiający szpiegowanie zagranicznych „celów” bez nakazu ale długa,...

Przewodnik po Dniu Społeczności Pokémon Go Bellsprout

PokemonGo organizuje wydarzenie z okazji Dnia Społeczności Bellsprout 20 kwietnia od 14:00 do 17:00 czasu lokalnego. Zgodnie z oczekiwaniami w przypadku...

Co oznacza restrukturyzacja Google dla Pixela i Androida?

Kluczowe dania na wynos Wewnętrzne zmiany Google pod rządami Ricka Osterloha mają na celu usprawnienie działania Pixela i Androida oraz usprawnienie...
Advertisment