Unia Europejska (UE) Ustawa o sztucznej inteligencji (AI). Jak wynika z oceny Europejskiego Centrum Prawa Non-Profit (ECNL), „nie chroni skutecznie praworządności i przestrzeni obywatelskiej”.
The badanie wskazuje na „znaczące luki i niepewność prawną” w ustawie o sztucznej inteligencji, która, jak twierdzi, została „wynegocjowana i sfinalizowana w pośpiechu”. Stwierdzono również, że ustawa przedkłada „interesy branży, służby bezpieczeństwa i organy ścigania” nad praworządność i przestrzeń obywatelską.
Ocena ustawy przeprowadzona przez ECNL wskazuje pięć podstawowych wad: luki w ustawodawstwieluki prawne i uchwały wtórne mogłyby „z łatwością podważyć gwarancje ustanowione w ustawie o sztucznej inteligencji, w dłuższej perspektywie jeszcze bardziej podważając prawa podstawowe i standardy praworządności”.
Obejmuje to ogólne wyłączenie dotyczące przypadków użycia sztucznej inteligencji w zakresie bezpieczeństwa narodowego, w tym „zdalnej identyfikacji biometrycznej”; ograniczone możliwości dochodzenia roszczeń przez osoby fizyczne; oraz słabe wymogi dotyczące oceny skutków.
Od swojego pierwotnego wniosku w 2021 r. ECNL monitoruje dyskusje na temat unijnej ustawy o sztucznej inteligencji i uczestniczy w nich w odpowiedzi na wykorzystywanie systemów sztucznej inteligencji do nadzoru aktywistów, profilowania pasażerów linii lotniczych i powoływania sędziów do spraw sądowych.
Po trzyletnim procesie legislacyjnym Parlament Europejski zatwierdził ustawę w zeszłym miesiącu.
Luki w ustawie
Chociaż Europa określiła swoje pierwsze ukierunkowane ramy prawne dla branży sztucznej inteligencji, w raporcie ECNL zauważono, że nie ma „wytycznych ani aktów delegowanych wyjaśniających często niejasne wymogi”, pozostawiając „zbyt wiele do uznania Komisji, prawodawstwa wtórnego lub dobrowolnych kodeksy postępowania”.
Dodał, że wiele zakazów ustawy zawiera luki prawne, przez co stanowią one „puste deklaracje” ze względu na „daleko idące wyjątki”. Ponadto szereg innych luk pozwala przedsiębiorstwom i organom publicznym uniknąć objęcia zakresem wykazu podmiotów objętych ustawą systemy wysokiego ryzyka.
„Pomimo obietnic, że unijna ustawa o sztucznej inteligencji postawi ludzi w centrum uwagi, brutalna rzeczywistość jest taka, że mamy prawo, które niewiele chroni przed zagrożeniami i szkodami wynikającymi z rozprzestrzeniania się systemów sztucznej inteligencji w praktycznie wszystkich obszarach życia” – powiedziała Ella Jakubowska, szefowa działu polityki w organizacji pozarządowej European Digital Rights (EDRi).
W praktyce dyrektorzy ds. bezpieczeństwa (CSO) mogą reprezentować wyłącznie osoby, których prawa zostały naruszone, gdy w grę wchodzą prawa konsumentów, co oznacza, że „mogliby złożyć skargę w imieniu grupy osób poszkodowanych np. przez systemy scoringowe, ale nie w imieniu protestujących, których wolności zostały naruszone poprzez stosowanie monitoringu biometrycznego na ulicach”.
Ustawa nie gwarantuje prawa do uczestnictwa – „władze publiczne ani przedsiębiorstwa nie będą zobowiązane do angażowania zewnętrznych interesariuszy przy ocenie wpływu sztucznej inteligencji na prawa podstawowe”.
Wykorzystanie sztucznej inteligencji przez władze państwowe
Ponadto standardy przewidzianej w ustawie oceny wpływu na prawa podstawowe (FRIA) dla organów publicznych planujących korzystanie z systemów sztucznej inteligencji wysokiego ryzyka są słabe i występują trzy istotne niedociągnięcia: nie ma wyraźnego obowiązku oceny tych skutków; Organizacje społeczeństwa obywatelskiego nie mają „bezpośredniej, prawnie wiążącej możliwości”, aby wnieść swój wkład w oceny skutków; a organy ścigania i organy migracyjne nie będą musiały ujawniać, czy korzystają z ryzykownych procesów związanych ze sztuczną inteligencją.
Mówiąc szerzej, sztuczna inteligencja opracowana na potrzeby bezpieczeństwa narodowego podlega „ogólnemu wyjątkowi”, co oznacza, że rządy mogą w praktyce „powołać się na bezpieczeństwo narodowe w celu wprowadzenia w przeciwnym razie systemów zabronionych, takich jak masowy nadzór biometryczny” i obejść przepisy ustawy dotyczące ryzykownych systemów sztucznej inteligencji.
„Zbyt szerokie wyłączenie dotyczące bezpieczeństwa narodowego daje również krajom i firmom szansę na uniknięcie więzienia, aby zignorować całe prawo, a brak zastosowania przepisów do eksportu technologii jeszcze bardziej pokazuje ograniczone myślenie stojące za tą ustawą, – powiedziała Jakubowska.
Według Cateriny Rodelli, analityk polityki UE w grupie ds. praw cyfrowych Access Now, ustawa o sztucznej inteligencji nie zapewnia znaczących zabezpieczeń w zakresie treści granicznych i migracyjnych, ponieważ „najbardziej niebezpieczne systemy nie są w znaczący sposób zakazane, jeśli są używane przez policję i władze migracyjne, takie jak jak zdalna identyfikacja biometryczna i wykrywacze kłamstw”.
Dodała, że w związku ze zwolnieniem z tego obowiązku policji i władz migracyjnych obowiązki w zakresie przejrzystościże „jest to niebezpieczny precedens, który upoważni władze państwowe do wykorzystywania systemów sztucznej inteligencji przeciwko osobom niepożądanym w społeczeństwie: w pierwszej kolejności osobom rasowym, ale najprawdopodobniej następnie obrońcom praw człowieka, dziennikarzom i przeciwnikom politycznym”.
Ustanowienie precedensu
Eurodeputowana Alexandra Geese, wiceprzewodnicząca Partii Zielonych/Wolnego Przymierza Europejskiego, powiedziała: „Podczas negocjacji ciężko pracowaliśmy, aby wprowadzić całkowity zakaz nadzoru biometrycznego w czasie rzeczywistym. Niestety lista zakazów została rozwodniona przez Radę na końcowych etapach, a nawet po końcowych rozmowach trójstronnych. Rada Europejska przegapiła okazję, aby skutecznie chronić swoich obywateli przed inwigilacją sztucznej inteligencji.
„Ale bez ustawy o sztucznej inteligencji nie mielibyśmy żadnego instrumentu, który pozwoliłby pociągnąć branżę AI do odpowiedzialności” – stwierdziła. „UE stworzyła pierwsze na świecie ramy prawne zawierające solidne zasady, które pozwolą nam w przyszłości udoskonalać narzędzia sztucznej inteligencji. Dzięki jasnym standardom rozwoju i wykorzystania systemów sztucznej inteligencji Europa toruje drogę przyszłości, w której technologia służy ludziom, przy jednoczesnym poszanowaniu naszych praw podstawowych i zasad demokracji”.
Jakubowska argumentowała, że choć należy nadal walczyć o jak najściślejsze stosowanie przepisów unijnej ustawy o sztucznej inteligencji, jasne jest, że prawo to nie powinno stać się globalnym wzorcem ochrony praw i demokracji w obliczu postępującej cyfryzacji społeczeństwa.
Rodelli dodał: „Ustawa o sztucznej inteligencji ustanawia niebezpieczny precedens, ponieważ tworzy osobne, równoległe ramy dla organów ścigania i organów migracyjnych korzystających z systemów sztucznej inteligencji. Ten drugi standard będzie miał wpływ przede wszystkim na osoby najbardziej marginalizowane w społeczeństwie, a mianowicie na migrantów i osoby rasowe w UE”.
Stwierdziła ponadto, że represyjne stosowanie systemów sztucznej inteligencji w innych aktach prawnych w następstwie tego precedensu już się rozpoczęło wraz z głosowaniem w sprawie nowego paktu UE o migracji i azylu, które odbyło się 10 kwietnia. „Ten zestaw reform opiera się na różnorodnych technologie nadzoru, które wchodziłyby w zakres ustawy o sztucznej inteligencji, ale które de facto nie będą jako takie regulowane ze względu na równoległy, luźny system regulacji, który wprowadzono dla policji i organów migracyjnych” – Rodelli.
Access Now wydało plik oświadczenie na temat powiązania między ustawą o sztucznej inteligencji a paktem migracyjnym, zwracając uwagę, w jaki sposób obydwa będą sprzyjać lepszemu nadzorowi w UE.