Walka z danymi używanymi do uczenia modeli sztucznej inteligencji stała się bardziej trująca.
Nowe narzędzie o nazwie Nightshade pozwala użytkownikom dołączyć je do swojej pracy twórczej, co spowoduje uszkodzenie – lub zatrucie – danych treningowych przy użyciu tej grafiki. Ostatecznie może zniszczyć przyszłe modele platform artystycznych AI, takich jak DALL-E, Stable Diffusion i Midjourney, pozbawiając go możliwości tworzenia obrazów.
Nightshade dodaje niewidoczne zmiany w pikselach dzieła sztuki cyfrowej. Kiedy praca jest wchłaniana przez model do szkolenia, „trucizna” wykorzystuje lukę w zabezpieczeniach, która dezorientuje model, więc nie będzie już odczytywać obrazu samochodu jako samochodu i zamiast tego wymyśla krowę.
The Przegląd technologii MIT zgłoszone że Ben Zhao, profesor na Uniwersytecie w Chicago i jeden z twórców Nocnego Cienia, ma nadzieję przechylić szalę na korzyść firm zajmujących się sztuczną inteligencją, które wykorzystywały dane chronione prawem autorskim do szkolenia swoich modeli. The Artykuł badawczy Nocnego Cienia stwierdził, że dane szkoleniowe wykorzystywane w modelach sztucznej inteligencji przekształcających tekst na obraz są podatne na rodzaj ataku przeprowadzanego przez to narzędzie.
„Co zaskakujące, pokazujemy, że umiarkowana liczba ataków Nightshade może zdestabilizować ogólne funkcje modelu generatywnego zamiany tekstu na obraz, skutecznie uniemożliwiając jego zdolność do generowania znaczących obrazów” – czytamy w artykule.
Artyści wystarczająco mściwi, aby pójść tą drogą, mogą przesłać swoje prace do Glaze, narzędzia stworzonego przez twórców Nightshade, które maskuje ich styl graficzny, na przykład tworząc zwykle realistyczny rysunek w coś, być może kubistycznego. Nightshade zostanie zintegrowany z Glaze, dzięki czemu użytkownicy będą mogli wybrać, czy chcą użyć trującej pigułki, czy też mieć pewność, że modelka nie będzie w stanie naśladować ich stylu artystycznego.
Twórcy Nightshade w swoim artykule zaproponowali, aby tego i podobnych narzędzi używać jako „ostatniej obrony twórców treści przed narzędziami internetowymi”, które nie uznają zasad rezygnacji.
W przypadku braku regulacji kwestie praw autorskich dotyczące treści generowanych przez sztuczną inteligencję i danych szkoleniowych pozostają szarą strefą. Wiele pozwów dotyczących naruszeń praw autorskich wciąż toczy się w sądach. Tymczasem metody uniemożliwiające robotom indeksującym pobieranie danych bez pozwolenia ograniczają się do blokowanie dostępu do zgarniaków. Firmy takie jak Adobe planują używać znaku do flagi jeśli coś zostało wygenerowane przez sztuczną inteligencję, ale pokaż także, kto jest właścicielem obrazu.
Google i Microsoft oświadczyły, że są chętne aby wziąć legalny upał jeśli niektórzy klienci zostaną pozwani za naruszenie praw autorskich podczas korzystania z produktów generatywnej sztucznej inteligencji. Jednak większość tych produktów jest oparta na tekście.