Włochy zniosą zakaz ChatGPT z zastrzeżeniem nowych kontroli ochrony danych


Włoski regulator prywatności i ochrony danych zostanie zniesiony niedawno nałożony zakaz na usługę ChatGPT firmy OpenAI pod koniec kwietnia 2023 r., jeśli służba wdroży szereg działań w odpowiedzi na obawy regulatora.

Garante per la Protezione dei Dati Personali (GPDP) nakazał wspieranemu przez Microsoft OpenAI zaprzestanie oferowania swoich usług we Włoszech pod koniec marca, twierdząc, że ChatGPT nie ma możliwości przetwarzania danych bez naruszenia przepisów dotyczących prywatności i nie ma podstawy prawnej leżącej u jego podstaw zbieranie i przetwarzanie danych w celach szkoleniowych.

Powołał się również na brak mechanizmu weryfikacji wieku, co oznacza, że ​​dzieci poniżej 13 roku życia mogą być narażone na nieodpowiednie odpowiedzi z monitów wprowadzonych do ChatGPT.

GPDP nałożyło teraz na OpenAI szereg warunków, które jego zdaniem zaspokoją jej obawy dotyczące bezpieczeństwa oferty ChatGPT.

„OpenAI będzie musiało do 30 kwietnia dostosować się do środków określonych przez włoski SA dotyczących przejrzystości, praw osób, których dane dotyczą – w tym użytkowników i osób niebędących użytkownikami – oraz podstawy prawnej przetwarzania w celu szkolenia algorytmicznego w oparciu o dane użytkowników, ” — poinformował regulator w oświadczeniu.

„Tylko w takim przypadku włoski SA zniesie swoje zamówienie, które tymczasowo ograniczyło przetwarzanie danych włoskich użytkowników, ponieważ nie ma już pilności leżącej u podstaw zamówienia, więc ChatGPT będzie ponownie dostępny z Włoch”.

Reklama

OpenAI musi teraz sporządzić i udostępnić online zawiadomienie opisujące „ustalenia i logikę” przetwarzania danych potrzebnych do uruchomienia ChatGPT oraz prawa przyznane osobom, których dane dotyczą, zarówno użytkownikom, jak i osobom niebędącym użytkownikami.

Użytkownicy rejestrujący się we Włoszech będą musieli przedstawić to powiadomienie i zadeklarować, że mają ukończone 18 lat lub uzyskali zgodę rodziców, jeśli mają od 13 do 18 lat, zanim będą mogli korzystać z ChatGPT. Mechanizm bramkowania wiekowego musi zostać wdrożony do 30 września 2023 r.

OpenAI otrzymało również polecenie usunięcia wszelkich odniesień do wykonania umowy i polegania – zgodnie z zasadami odpowiedzialności w RODO Unii Europejskiej (UE). – na podstawie zgody lub uzasadnionej podstawy jako obowiązującej podstawy prawnej przetwarzania danych osobowych w celu trenowania algorytmów.

Musi zastosować zestaw środków, aby umożliwić osobom, których dane dotyczą, usunięcie lub sprostowanie ich danych osobowych, jeśli są one niewłaściwie wykorzystywane przez ChatGPT, oraz umożliwić osobom niebędącym użytkownikami skorzystanie z prawa do sprzeciwu wobec przetwarzania danych osobowych – nawet jeśli jako podstawę wybrano uzasadniony interes podstawa prawna ich przetwarzania.

Wreszcie OpenAI otrzymał polecenie przeprowadzenia kampanii uświadamiającej we włoskich mediach, aby informować osoby fizyczne o wykorzystaniu ich danych do trenowania algorytmów.

„Włoski SA będzie kontynuował dochodzenie w celu ustalenia ewentualnych naruszeń obowiązujących przepisów i może zdecydować o podjęciu dodatkowych lub innych środków, jeśli okaże się to konieczne po zakończeniu trwającego procesu ustalania faktów” – powiedział GPDP.

Ilia Kolochenko, założyciel Sieć immunologiczna i członek sieci ekspertów ds. ochrony danych Europolu, skomentował: „Kwestie prywatności to tylko niewielki ułamek problemów regulacyjnych, z jakimi może się spotkać generatywna sztuczna inteligencja, taka jak ChatGPT, w najbliższej przyszłości. Wiele krajów aktywnie pracuje nad nowymi przepisami dotyczącymi wszystkich rodzajów technologii sztucznej inteligencji, których celem jest zapewnienie niedyskryminacji, wyjaśnialności, przejrzystości i sprawiedliwości – niezależnie od tego, co te inspirujące słowa mogą znaczyć w określonym kontekście, takim jak opieka zdrowotna, ubezpieczenie czy zatrudnienie.

„Warto zauważyć, że trend regulacyjny nie jest prerogatywą europejskich organów regulacyjnych. Na przykład w Stanach Zjednoczonych FTC jest gotowa do aktywnego kształtowania przyszłości sztucznej inteligencji”.

Dane treningowe

Kolochenko powiedział, że jednym z największych problemów związanych z generatywną sztuczną inteligencją są dane szkoleniowe, które są zbyt regularnie zbierane przez dostawców sztucznej inteligencji bez zgody twórców treści lub osób fizycznych.

Ostrzegł, że chociaż obecne prawo własności intelektualnej wydaje się zapewniać niewielką lub żadną ochronę przed tym, praktyki zbierania danych na dużą skalę prawdopodobnie naruszają warunki korzystania z zasobów cyfrowych, co może ostatecznie doprowadzić do sporu sądowego.

To powiedziawszy, dodał Kolochenko, zakazanie AI nadal nie było świetnym pomysłem. „Podczas gdy przestrzegające prawa firmy będą posłusznie przestrzegać zakazu, wrogie państwa narodowe i ugrupowania cyberprzestępcze chętnie będą kontynuować badania i rozwój, zdobywając nieuczciwą przewagę w globalnym wyścigu AI” – powiedział.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

GIGAIPC przedstawia zupełnie nową serię produktów PICO-ITX

PICO-ITX, kompaktowy, wbudowany komputer jednopłytkowy (SBC) w obudowie o wymiarach 100 mm x 72 mm, służy jako zajmująca mniej miejsca alternatywna płyta główna,...

Radxa wprowadza na rynek przyjazną dla NAS płytę główną ROCK 5 ITX z procesorem Arm SoC

Radxa to chiński producent różnych urządzeń opartych na architekturze ARM i coś w rodzaju drobnego konkurenta Fundacji Raspberry Pi. Firma właśnie wypuściła...

Thermaltake przedstawia wieżowe chłodnice procesorów ASTRIA 200 i ASTRIA 400 ARGB

Kontynuując premierę, która miała miejsce w zeszłym tygodniu ASTRIA 600 ARGB dwupoziomowe chłodziarki procesora, Thermaltake przedstawił dziś swoje rodzeństwo z jednym stosem, ASTRIA...
Advertisment