W ramach unijnej ustawy o sztucznej inteligencji wyjaśniono: Co powinni wiedzieć twórcy sztucznej inteligencji


Parlament Europejski zatwierdził ustawę Unii Europejskiej (UE) o sztucznej inteligencji w marcu 2024 r., a jej celem jest zapewnienie twórcom i wdrażającym sztucznej inteligencji (AI) tego, co decydenci UE określają jako „jasne wymagania oraz obowiązki dotyczące konkretnych zastosowań sztucznej inteligencji”.

Mają także nadzieję, że regulacje zmniejszą obciążenia administracyjne i finansowe przedsiębiorstw, w szczególności małych i średnich przedsiębiorstw (MŚP).

Ustawa ma na celu zapewnienie Ramy prawne do obsługi systemów AI ze szczególnym uwzględnieniem bezpieczeństwa, prywatności i zapobiegania marginalizacji ludzi. Istnieje wiele przypadków użycia sztucznej inteligencji wyłączone z ustawy. Niektórzy krytycy uważają jednak, że zawiera zbyt wiele luk prawnych, szczególnie wokół bezpieczeństwa narodowegoco może ograniczać jego skuteczność.

Powodem, dla którego UE i inne jurysdykcje szukają sposobów rozwiązania problemów związanych z bezpieczeństwem sztucznej inteligencji, jest fakt, że takie systemy mogą być szkolone w oparciu o dane, które mogą zmieniać się w czasie.

Grupa ds. sztucznej inteligencji Organizacji Współpracy Gospodarczej i Rozwoju (OECD) ostrzega, że ​​na systemy oparte na sztucznej inteligencji wpływa dynamika społeczna i ludzkie zachowanie.

Zagrożenia i korzyści związane ze sztuczną inteligencją mogą wynikać ze wzajemnego oddziaływania aspektów technicznych w połączeniu z czynnikami społecznymi związanymi ze sposobem wykorzystania systemu, jego interakcjami z innymi systemami sztucznej inteligencji, tym, kto go obsługuje, oraz kontekstem społecznym, w którym jest wdrażany.

Reklama

Ogólnie rzecz biorąc, ustawodawstwo dotyczące sztucznej inteligencji koncentruje się na odpowiedzialnym korzystaniu z systemów sztucznej inteligencji, co obejmuje sposób ich szkolenia, stronniczość danych i możliwość wyjaśnienia, w przypadku których błędy mogą mieć szkodliwy wpływ na jednostkę.

Obserwatorium polityki OECD.ai Ramy zarządzania ryzykiem sztucznej inteligencji zauważa, że ​​zmiany zachodzące w danych szkoleniowych sztucznej inteligencji mogą czasami nieoczekiwanie wpłynąć na funkcjonalność i wiarygodność systemu w sposób trudny do zrozumienia. Systemy sztucznej inteligencji i konteksty, w jakich są wdrażane, są często złożone, co utrudnia wykrywanie awarii i reagowanie na nie w przypadku ich wystąpienia – ostrzega obserwatorium polityki OECD.ai.

W unijnym akcie dotyczącym sztucznej inteligencji przyjęto podejście do bezpieczeństwa sztucznej inteligencji oparte na ryzyku, przewidując cztery poziomy ryzyka dla systemów sztucznej inteligencji, a także identyfikację ryzyka specyficznego dla modelu ogólnego przeznaczenia.

Stanowi to część szerszego pakietu środków politycznych mających na celu wspieranie rozwoju godnej zaufania sztucznej inteligencji, który obejmuje również pakiet innowacji w zakresie sztucznej inteligencji i skoordynowany plan dotyczący sztucznej inteligencji. UE twierdzi, że środki te zagwarantują bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw w zakresie sztucznej inteligencji, a także zwiększą wykorzystanie sztucznej inteligencji, inwestycje i innowacje w tej dziedzinie w całej UE.

Najważniejsze wnioski z unijnej ustawy o sztucznej inteligencji

Scena zapewnia zestaw poręczy do AI ogólnego przeznaczenia. Twórcy takich systemów muszą sporządzić dokumentację techniczną, aby zapewnić zgodność sztucznej inteligencji z unijnym prawem autorskim, a także udostępniać szczegółowe podsumowania treści wykorzystywanych w szkoleniach. Określa różne zasady dla różnych poziomów ryzyka.

W kategorii „ryzyko niedopuszczalne” ustawa podjęła próbę ograniczenia stosowania systemów identyfikacji biometrycznej przez organy ścigania. Systemy kategoryzacji biometrycznej wykorzystujące wrażliwe cechy (na przykład przekonania polityczne, religijne i filozoficzne, orientację seksualną czy rasę) są zabronione.

Sztuczna inteligencja wysokiego ryzyka objęta ustawą obejmuje systemy sztucznej inteligencji stosowane w produktach objętych przepisami UE dotyczącymi bezpieczeństwa produktów. Obejmuje to zabawki, lotnictwo, samochody, urządzenia medyczne i windy. Obejmuje również sztuczną inteligencję wykorzystywaną w szeregu ról związanych ze wspomaganiem decyzji, takich jak egzekwowanie prawa, azyl, migracja i kontrola granic, edukacja, zatrudnienie i zarządzanie krytyczną infrastrukturą krajową.

Produkty należące do kategorii wysokiego ryzyka należy oceniać przed wprowadzeniem na rynek, a także podczas całego cyklu życia. Ustawa daje obywatelom prawo do składania skarg dotyczących systemów sztucznej inteligencji do wyznaczonych organów krajowych. Generacyjna sztuczna inteligencja (GenAI), taka jak ChatGPT, nie jest klasyfikowana jako grupa wysokiego ryzyka. Zamiast tego ustawa stanowi, że takie systemy muszą spełniać wymogi przejrzystości i unijnego prawa autorskiego.

Kogo dotyczy unijna ustawa o sztucznej inteligencji?

Stephena Catanzano, starszy analityk w Enterprise Strategy Group, zauważa, że ​​ustawa AI dotyczy dostawców systemów AI. Oznacza to, jego zdaniem, że obejmuje firmy, które opracowują i sprzedają systemy sztucznej inteligencji lub udostępniają takie systemy pod własną nazwą lub znakiem towarowym, odpłatnie lub bezpłatnie.

Ponadto Catanzano wskazuje, że ustawa o sztucznej inteligencji obejmuje importerów i dystrybutorów systemów sztucznej inteligencji w UE, a także rozciąga się na „wdrożeniowców”, czyli osoby fizyczne lub prawne wykorzystujące sztuczną inteligencję pod swoim nadzorem w swojej działalności zawodowej.

Główny analityk Enzę Iannopollo twierdzi, że pomimo braku szczegółowych informacji na temat standardów technicznych i protokołów, nalega, aby organizacje przygotowały się przynajmniej do pomiarów i raportowania wydajności swoich systemów sztucznej inteligencji. Według Iannopollo jest to prawdopodobnie jedno z głównych wyzwań związanych z nowymi wymogami.

„Firmy muszą zacząć od pomiaru wydajności swoich systemów AI i GenAI na podstawie kluczowych zasad odpowiedzialnej sztucznej inteligencji, takich jak stronniczość, dyskryminacja i nieuczciwość” – napisała w poście na blogu poświęconym ustawie.

W miarę pojawiania się nowych standardów i specyfikacji technicznych należy spodziewać się rozszerzenia brzmienia części ustawy.

Czym UE różni się od innych regionów pod względem regulacji dotyczących sztucznej inteligencji?

Niezależnie od regionu, w którym działa organizacja, jeśli chce wdrożyć sztuczną inteligencję w innym miejscu, musi zrozumieć ramy regulacyjne zarówno w swoim kraju, jak i w innych regionach, w których system będzie używany. W chwili pisania tego tekstu UE przyjęła podejście oparte na ryzyku.

Jednak inne kraje przyjęły odmienne podejście do przepisów dotyczących sztucznej inteligencji. Chociaż różne jurysdykcje różnią się pod względem podejścia regulacyjnego, zgodnie z różnymi normami kulturowymi i kontekstami prawnymi, podkreśla EY zasadniczo zgadzają się co do konieczności łagodzenia potencjalnych szkód związanych ze sztuczną inteligencją, przy jednoczesnym umożliwieniu jej wykorzystania z korzyścią gospodarczą i społeczną obywateli, zgodnie z definicją OECD i zatwierdzoną przez G20. Należą do nich poszanowanie praw człowieka, zrównoważony rozwój, przejrzystość i solidne zarządzanie ryzykiem.

Opublikowany w lutym zarys ram regulacyjnych brytyjskiego rządu dotyczący sztucznej inteligencji proponuje podejście „proinnowacyjne”. Obiecująca jest świadomość tej świadomości w zakresie potrzeby opracowania wytycznych, jednak zasady nielegislacyjne skupiają się na kluczowych podmiotach zaangażowanych w rozwój sztucznej inteligencji.

Aby zachęcać do innowacji włączających, Wielka Brytania musi zaangażować jak najwięcej głosów w kształtowanie krajobrazu regulacyjnego. To wg Gavina Poole’adyrektor generalny Here East, oznacza, że ​​decydenci i organy regulacyjne muszą aktywnie angażować nie tylko duże korporacje technologiczne, ale także start-upy, instytucje edukacyjne i mniejsze firmy.

„Uchwalenie przez UE przełomowej ustawy o sztucznej inteligencji to sygnał alarmowy dla Wielkiej Brytanii – przypomnienie, że musimy dostosować i ewoluować nasze wytyczne, aby wyprzedzić konkurencję” – mówi. „Idealny scenariusz to ramy sprzyjające wzrostowi i inwestujące w lokalne talenty i przyszły potencjał, aby jeszcze bardziej umocnić naszą pozycję światowego lidera w dziedzinie innowacji w zakresie sztucznej inteligencji”.

Znaczenie wzajemnego wpływu

Podejście UE znacznie różni się od podejścia USA. Zdaniem Ivany Bartoletti, dyrektor ds. prywatności i zarządzania sztuczną inteligencją w firmie Wipro, jest to właściwie dobra rzecz. „Potrzebujemy wzajemnego oddziaływania i wzajemnego wpływu, gdy wypracowujemy najlepszy sposób zarządzania tą potężną technologią” – mówi.

Jak wskazuje Bartoletti, chociaż ustawodawstwo USA i UE różni się nieco, obie strategie wykazują zbieżność w niektórych kluczowych elementach. Nacisk kładzie się na przykład na uczciwość, bezpieczeństwo i solidność. Istnieje również silne zaangażowanie i solidne działania mające na celu zrównoważenie innowacji i koncentracji władzy w dużych firmach technologicznych.

Chiny czynią również znaczne postępy w zakresie regulacji dotyczących sztucznej inteligencji. Jego podejście skupiało się wcześniej na konkretnych obszarach sztucznej inteligencji, a nie na budowaniu kompleksowego systemu regulacyjnego dla systemów sztucznej inteligencji. Na przykład, Jamiego Rowlandsa, partner i Angus Milne, współpracownik w Haseltine Lake Kempner, zauważają, że Chiny wprowadziły indywidualne przepisy dotyczące algorytmów rekomendacyjnych, GenAI i deepfakes. Twierdzą, że takie podejście najwyraźniej stanowi reakcję na rozwój sztucznej inteligencji, a nie proaktywną próbę kształtowania tego rozwoju.

W czerwcu 2023 r. Chiny potwierdziły, że pracują nad ustawą o sztucznej inteligencji. Obecnie nie jest jasne, co będzie objęte nową ustawą, ponieważ projekt nie został jeszcze opublikowany, ale oczekuje się, że będzie ona miała na celu zapewnienie kompleksowych ram regulacyjnych i w związku z tym będzie potencjalnie konkurować z unijną ustawą o sztucznej inteligencji pod względem zakresu i ambicji.

Jaki wpływ ma to na europejski sektor sztucznej inteligencji?

Niemieckie Stowarzyszenie AI ostrzegł, że w swojej obecnej formie unijna ustawa o sztucznej inteligencji miałaby poważny negatywny wpływ na europejski ekosystem sztucznej inteligencji i potencjalnie doprowadziłaby do niekorzystnej sytuacji konkurencyjnej, szczególnie dla konkurentów ze Stanów Zjednoczonych i Chin.

W artykule omawiającym swoje stanowisko przestrzegł, że konieczne jest wyłączenie modeli sztucznej inteligencji ogólnego przeznaczenia i dużych modeli językowych lub przynajmniej z kategorycznego zaklasyfikowania takich modeli jako przypadków użycia wysokiego ryzyka.

„Wzywamy do ponownej oceny obecnych wymogów, które klasyfikują systemy sztucznej inteligencji jako przypadki użycia wysokiego ryzyka, ochrony i promowania europejskich inwestycji w wielkojęzykowe modele i modele multimodalne oraz doprecyzowania niejasnych definicji i wybranych sformułowań” – autorzy raportu papier napisał.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Asus nie chce powiedzieć, czy czytnik kart SD w ROG Ally zostanie kiedykolwiek naprawdę naprawiony

1) Czy Asus rzeczywiście znalazł naprawę sprzętową wadliwych czytników kart SD? Jeśli ktoś w ten sposób zwróci swojego sojusznika Asusowi i otrzyma...

Czego można się spodziewać po Apple Watch Ultra 3 w tym roku

Słyszeliśmy wiele plotek na temat „Apple Watch X”, który byłby całkowicie przeprojektowanym zegarkiem Apple Watch z okazji 10. rocznicy powstania produktu. Jednak...

Snapchat wkrótce umożliwi Ci edycję wiadomości po wysłaniu

Uruchamia się Snap mnóstwo nowych funkcji w Snapchacie, w tym możliwość edycji już wysłanych wiadomości, dzięki czemu możesz poprawić literówkę „twoje” lub „ty”...
Advertisment