W opublikowanym projekcie proponowanych regulacji dotyczących sztucznej inteligencji (AI) w Europie Unia Europejska (UE) określiła plany stworzenia centralnej bazy danych systemy SI wysokiego ryzyka.
Wersja robocza wysłana dysk Google, wymienia również kilka zastosowań sztucznej inteligencji zabronionych w UE. Plany, których celem jest ochrona praw obywateli UE, mają dalekosiężne konsekwencje, wywierając wpływ na systemy, które podejmują decyzje wpływające na jednostki.
Projekt rozporządzenia zakazuje stosowania systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem, wykorzystywanych do masowego nadzoru i oceny społecznej. Dokument przewiduje, że kary za naruszenie podlegałyby karom administracyjnym w wysokości do 20 mln EUR lub 4% całkowitego rocznego światowego obrotu sprawcy za poprzedni rok obrotowy.
Zasady określone w dokumencie dotyczą stosowania sztucznej inteligencji. Zgodnie z projektem dokumentu dostawcy systemów SI będą musieli zostać poddani walidacji i będą zobowiązani do dostarczenia informacji na temat modele danych, algorytmy i zestawy danych testowych używane do weryfikacji ich systemów.
W dokumencie wyszczególniono szereg wdrożeń sztucznej inteligencji uznawanych za obarczone wysokim ryzykiem, w tym wykorzystanie sztucznej inteligencji do nadawania priorytetów wysyłaniu służb ratunkowych pierwszego reagowania, przydzielaniu ludzi do placówek edukacyjnych i szkoleniowych, a także szereg systemów wykrywania przestępstw i stosowanych przez sędziów. Inne obszary zidentyfikowane jako wysokie ryzyko to rekrutacja, zdolność kredytowa osób oraz indywidualne oceny ryzyka.
Projekt dokumentu stanowi, że zasady dotyczące sztucznej inteligencji dostępnej na rynku UE lub w inny sposób wpływające na obywateli UE powinny „stawiać ludzi w centrum uwagi (koncentrować się na człowieku), aby mogli oni ufać, że technologia jest używana w sposób bezpieczny i zgodny z prawem, w tym z poszanowaniem praw podstawowych ”.
Aby zminimalizować stronniczość, dokument UE stwierdza, że szkolenia i zestawy danych testowych powinny być wystarczająco istotne, reprezentatywne, wolne od błędów i kompletne w świetle zamierzonego celu oraz posiadać odpowiednie właściwości statystyczne.
Przepisy wymagałyby od dostawców systemów sztucznej inteligencji dostarczania unijnym organom regulacyjnym informacji o projekcie koncepcyjnym i algorytmach, których używają. UE chce, aby firmy AI przekazywały jej informacje dotyczące wyborów projektowych i założeń związanych z algorytmami.
Wydaje się również, że UE poszukuje dostawców systemów SI wysokiego ryzyka, którzy dostarczą szczegółowych informacji na temat funkcjonowania zatwierdzonego systemu SI. Będzie to musiało zawierać opis jego możliwości i ograniczeń, przewidywane dane wejściowe i wyjściowe oraz oczekiwaną dokładność / margines błędu.
W projekcie UE chce również, aby dostawcy systemów SI wysokiego ryzyka informowali o ograniczeniach systemu, w tym o znanych uprzedzeniach, przewidywalnych niezamierzonych konsekwencjach oraz źródłach ryzyka dla bezpieczeństwa i praw podstawowych.
Jeden komentator na Twitterze napisał: „Definicja sztucznej inteligencji wydaje się być szalenie szeroka i obejmuje oprogramowanie oparte wyłącznie na logice warunkowej, takie jak boty konwersacyjne lub kreatory generowania kontraktów”.