Narzędzia GenAI „nie mogłyby istnieć”, gdyby firmy musiały płacić za prawa autorskie


Firma Anthropic zajmująca się sztuczną inteligencją generatywną (GenAI) wniosła do amerykańskiego sądu, że wykorzystywanie treści chronionych prawem autorskim w danych szkoleniowych dużych modeli językowych (LLM) liczy się jako „dozwolony użytek” oraz że „dzisiejsze narzędzia sztucznej inteligencji ogólnego przeznaczenia po prostu nie mogłyby istnieć”, gdyby sztuczna inteligencja firmy musiały płacić licencje na materiał.

Zgodnie z prawem Stanów Zjednoczonych „dozwolony użytek” pozwala na ograniczone wykorzystanie materiałów chronionych prawem autorskim bez pozwolenia, do celów takich jak krytyka, reportaże prasowe, nauczanie i badania.

W październiku 2023 r. wielu wydawców muzycznych, w tym Concord, Universal Music Group i ABKCO, wszczęło postępowanie prawne przeciwko wspieranym przez Amazon i Google firmom generatywna sztuczna inteligencja firma Anthropic, żądająca potencjalnie wielomilionowego odszkodowania za rzekomo „systematyczne i powszechne naruszanie tekstów piosenek chronionych prawem autorskim”.

The piłowaniezłożony przed sądem rejonowym w Tennessee, zarzucił Anthropic, że budując i obsługując swoje modele sztucznej inteligencji, „bezprawnie kopiuje i rozpowszechnia ogromne ilości dzieł chronionych prawem autorskim – w tym teksty niezliczonych kompozycji muzycznych będących własnością wydawców lub przez nich kontrolowanych”.

Dodała, że ​​chociaż technologia sztucznej inteligencji może być złożona i nowatorska, kwestie prawne związane z wykorzystaniem materiałów chronionych prawem autorskim są „proste i długotrwałe”.

„Oskarżony nie może reprodukować, rozpowszechniać ani wyświetlać cudzych dzieł chronionych prawem autorskim w celu budowania własnego biznesu, chyba że uzyska zgodę posiadacza praw” – stwierdzono. „Zasada ta nie zanika po prostu dlatego, że przedsiębiorstwo ozdabia swoje naruszenie słowami „AI”.

Reklama

W zgłoszeniu stwierdzono ponadto, że niezapewnienie przez Anthropic zezwoleń na prawa autorskie „pozbawia wydawców i ich autorów piosenek kontroli nad ich dziełami chronionymi prawem autorskim oraz ciężko wypracowanymi korzyściami z ich twórczych wysiłków”.

Aby załagodzić problem, wydawcy muzyczni wzywają sąd do nałożenia na Anthropic odszkodowania; zapewnić rozliczanie swoich danych i metod szkoleniowych; i zniszczyć wszystkie „kopie naruszające prawo” pracy znajdujące się w posiadaniu firmy.

Jednakże w A przedłożona praca do amerykańskiego Urzędu ds. Praw Autorskich w dniu 30 października (co było całkowicie odrębne od tej sprawy) firma Anthropic stwierdziła, że ​​szkolenie jej modelu sztucznej inteligencji Claude „kwalifikuje się jako zasadniczo zgodne z prawem wykorzystanie materiałów”, argumentując, że „w zakresie, w jakim wykorzystywane są dzieła chronione prawem autorskim w danych szkoleniowych służy do analizy (statystycznych zależności między słowami i pojęciami), która nie jest powiązana z żadnym wyrazistym celem pracy”.

Dodał: „Wykorzystywanie utworów do szkolenia Claude’a jest sprawiedliwe, ponieważ nie uniemożliwia sprzedaży oryginalnych dzieł, a nawet jeśli ma charakter komercyjny, nadal ma wystarczający wpływ na transformację”.

O potencjale systemu licencjonowania dla Pobieranie przez LLM treści chronionych prawem autorskimAnthropic argumentowało, że ciągłe wymaganie licencji byłoby niewłaściwe, ponieważ zablokowałoby dostęp do zdecydowanej większości utworów i przyniosło korzyści „tylko podmiotom posiadającym największe zasoby”, które są w stanie opłacić przestrzeganie przepisów.

„Wymaganie licencji na niewyrażone wykorzystanie dzieł chronionych prawem autorskim w celu szkolenia LLM skutecznie oznacza utrudnianie wykorzystywania pomysłów, faktów i innych materiałów nieobjętych prawami autorskimi” – stwierdzono. „Nawet zakładając, że pewne aspekty zbioru danych mogą przypisywać danemu wynikowi większą wagę niż inne, model jest czymś więcej niż tylko sumą jego części.

„W związku z tym trudno będzie ustalić stawkę tantiem, która byłaby istotna dla indywidualnych twórców, nie czyniąc przy tym przede wszystkim nieekonomicznym opracowywania generatywnych modeli sztucznej inteligencji”.

W 40-stronicowy dokument przesłany do sądu w dniu 16 stycznia 2024 r. (w szczególności w odpowiedzi na a „wniosek o wydanie nakazu wstępnego” złożone przez wydawców muzycznych w listopadzie), Anthropic rozwinął ten sam argument dalej, twierdząc, że „nie byłoby możliwe zgromadzenie wystarczającej treści, aby za jakąkolwiek cenę przeszkolić LLM taką jak Claude w zakresie transakcji licencyjnych na warunkach rynkowych”.

Dodał, że firma Anthropic nie jest jedyną firmą, która wykorzystuje dane „szeroko zebrane z publicznie dostępnego Internetu” oraz że „w praktyce nie ma innego sposobu na zgromadzenie korpusu szkoleniowego o skali i różnorodności niezbędnej do szkolenia złożonego LLM z szerokim zakresem zrozumienia języka ludzkiego i świata w ogóle”.

„Jakiekolwiek włączenie tekstów piosenek Powodów – lub innych treści odzwierciedlonych w tych zbiorach danych – byłoby po prostu produktem ubocznym jedynego realnego podejścia do rozwiązania tego wyzwania technicznego” – stwierdził.

Twierdził ponadto, że skala zbiorów danych wymaganych do szkolenia LLM jest po prostu zbyt duża, aby mógł działać skuteczny system licencjonowania: „Nie można zawierać transakcji licencyjnych z wystarczającą liczbą właścicieli praw, aby objąć miliardy tekstów niezbędnych do uzyskania bilionów tokenów których LLM ogólnego przeznaczenia wymagają do odpowiedniego szkolenia. Gdyby do szkolenia menedżerów LLM w zakresie treści chronionych prawem autorskim wymagane były licencje, dzisiejsze narzędzia sztucznej inteligencji ogólnego przeznaczenia po prostu nie mogłyby istnieć”.

Chociaż wydawcy muzyczni twierdzili w swoim pozwie, że Anthropic mogłaby z łatwością wykluczyć ich materiały chronione prawem autorskim ze swojego korpusu szkoleniowego, firma stwierdziła, że ​​wdrożyła już „szeroki wachlarz zabezpieczeń zapobiegających tego rodzaju reprodukcji”, w tym nałożenie nieokreślonych ograniczeń na co model może odtworzyć, oraz nauczenie modelu rozpoznawania materiałów chronionych prawem autorskim wśród „innych podejść”.

Dodała, że ​​choć środki te są na ogół skuteczne, nie są doskonałe: „Prawdą jest, że zwłaszcza w przypadku użytkownika, który celowo wykorzystał Claude w celu nakłonienia go do wydrukowania istotnych fragmentów dzieł chronionych prawem autorskim, niektóre krótsze teksty mogą przemknąć przez wielotorowe mechanizmy obronne, jakie wdrożyła firma Anthropic.

„Jeśli chodzi o konkretne utwory będące przedmiotem niniejszego pozwu, Powodowie nie przytaczają żadnych dowodów na to, że jakiekolwiek, a tym bardziej wszystkie, zostały kiedykolwiek przekazane jakiemukolwiek użytkownikowi innemu niż Powodowie lub ich agenci”.

Podobne sprawy dotyczące praw autorskich zostały wniesione przeciwko innym firmom za korzystanie z generatywnej sztucznej inteligencji, w tym OpenAI i Stability AI, a także gigantom technologicznym Microsoft, Google i Meta. Na dzień publikacji żaden sąd nie podjął żadnych decyzji, ale ostateczne wyniki zaczną ustanawiać precedensy dla przyszłości technologii.

W swoim uwagi do amerykańskiego Urzędu ds. Praw Autorskich (ponownie całkowicie odrębnego od sprawy toczącej się obecnie przeciwko firmie Anthropic i innym firmom technologicznym) Amerykańskie Stowarzyszenie Kompozytorów, Autorów i Wydawców (ASCAP) stwierdziło, że: „Na podstawie naszego obecnego zrozumienia, w jaki sposób generatywna sztuczna inteligencja modele są trenowane i wdrażane, nie wierzymy, że istnieje realistyczny scenariusz, w którym nieupoważnione i nieosobowe wykorzystanie dzieł chronionych prawem autorskim do szkolenia modeli generatywnych sztucznej inteligencji stanowiłoby dozwolony użytek, w związku z czym wymagana jest zgoda właścicieli praw autorskich.

W całkowitym przeciwieństwie do Anthropic stwierdził ponadto, że: „Wykorzystanie w rozwoju materiałów chronionych prawem autorskim [of] generatywne modele sztucznej inteligencji nie mają charakteru transformacyjnego. Każde nieupoważnione użycie materiałów chronionych prawem autorskim podczas procesu szkoleniowego ma na celu realizację celów komercyjnych.”

We wrześniu 2023 r., zaledwie miesiąc przed złożeniem skargi prawnej przez wydawcę muzycznego, Anthropic ogłoszony gigant e-commerce Amazon zainwestuje w spółkę aż 4 miliardy dolarów i obejmie w niej mniejszościowe udziały. W lutym 2023 r. Google zainwestowało około 300 milionów funtów w spółce i objął 10% udziałów. Założyciel FTX, Sam Bankman-Fried, również wpłacił 500 mln dolarów na rzecz Anthropic w kwietniu 2022 r., zanim w listopadzie tego samego roku ogłosił upadłość.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Projekt Apple Watch Ultra z mikroLED nie został odwołany, wynika z raportu dotyczącego łańcucha dostaw

W zeszłym tygodniu poddaliśmy w wątpliwość w sprawie doniesień, że mikro-LED Apple Watch Ultra projekt został anulowany, a nowy raport na temat łańcucha...

Wywiady na temat bezpieczeństwa: Cyberbezpieczeństwo polega na skutecznym zarządzaniu ryzykiem

Dobry strategia bezpieczeństwa cybernetycznego powinno zawsze zaczynać się od określenia, jakie ryzyko firma jest skłonna tolerować, a w realizację tego zadania menedżer ds....

Asustor przedstawia NAS Drivestor 2 Lite

Asustor przedstawia serwer NAS dla każdego — Drivestor 2 Lite. Drivestor 2 Lite i Drivestor Pro Gen 2 wykorzystują wydajne czterordzeniowe procesory...
Advertisment