Każda agencja federalna w USA musi zatrudnić głównego specjalistę ds. sztucznej inteligencji


Wszystkie amerykańskie agencje federalne będą teraz musiały mieć starszego przywódcę nadzorującego wszystkie używane przez nie systemy sztucznej inteligencji, ponieważ rząd chce mieć pewność, że wykorzystanie sztucznej inteligencji w służbie publicznej pozostanie bezpieczne.

Wiceprezydent Kamala Harris ogłosiła na odprawie z reporterami nowe wytyczne OMB i stwierdziła, że ​​agencje muszą również powołać rady zarządzające AI, aby koordynować sposób wykorzystania sztucznej inteligencji w agencji. Agencje będą również musiały składać do Biura Zarządzania i Budżetu (OMB) roczne sprawozdanie zawierające wykaz wszystkich używanych przez siebie systemów sztucznej inteligencji, wszelkich związanych z nimi zagrożeń oraz sposobów ich ograniczania.

„Poleciliśmy wszystkim agencjom federalnym wyznaczenie dyrektora ds. sztucznej inteligencji posiadającego doświadczenie, wiedzę specjalistyczną i uprawnienia do nadzorowania wszystkich technologii sztucznej inteligencji wykorzystywanych przez tę agencję, abyśmy mieli pewność, że sztuczna inteligencja jest wykorzystywana w sposób odpowiedzialny, rozumiejąc, że musimy mieć starszych przywódców w całym naszym rządzie, których zadaniem jest nadzorowanie wdrażania i stosowania sztucznej inteligencji” – powiedział Harris reporterom.

Dyrektor ds. sztucznej inteligencji niekoniecznie musi być nominacją polityczną, choć zależy to od struktury agencji federalnej. Do lata muszą zostać utworzone rady zarządzające.

Niniejsze wytyczne stanowią rozwinięcie wcześniej ogłoszonych zasad przedstawionych w dokumencie Zarządzenie wykonawcze administracji Bidena dotyczące sztucznej inteligencjico wymagało od urzędów federalnych stworzenia standardów bezpieczeństwa i zwiększenia liczby talentów AI pracujących w rządzie.

Niektóre agencje rozpoczęły zatrudnianie dyrektorów AI jeszcze przed dzisiejszym ogłoszeniem. The Departament Sprawiedliwości ogłosił Jonathana Mayera jako pierwsze CAIO w lutym. Pokieruje zespołem ekspertów ds. cyberbezpieczeństwa, który będzie pracował nad znalezieniem sposobów wykorzystania sztucznej inteligencji w egzekwowaniu prawa.

Reklama

Według przewodniczącej OMB, Shalandy Young, rząd USA planuje zatrudnić do lata 100 specjalistów zajmujących się sztuczną inteligencją.

Częścią obowiązków urzędników ds. sztucznej inteligencji w agencjach i komitetów zarządzających jest częste monitorowanie ich systemów sztucznej inteligencji. Young powiedział, że agencje muszą przedstawić spis produktów AI, z których korzystają. Jeżeli jakikolwiek system sztucznej inteligencji zostanie uznany za wystarczająco „wrażliwy”, aby go pominąć na liście, agencja musi publicznie podać powód jego wykluczenia. Agencje muszą także niezależnie ocenić ryzyko bezpieczeństwa każdej platformy sztucznej inteligencji, z której korzystają.

Agencje federalne muszą także sprawdzać, czy wdrażana przez nie sztuczna inteligencja spełnia zabezpieczenia, które „ograniczają ryzyko dyskryminacji algorytmicznej i zapewniają społeczeństwu przejrzystość w zakresie sposobu, w jaki rząd wykorzystuje sztuczną inteligencję”. Arkusz informacyjny OMB podaje kilka przykładów, w tym:

Na lotnisku podróżni będą mogli zrezygnować z funkcji rozpoznawania twarzy TSA bez żadnych opóźnień i utraty miejsca w kolejce.

Kiedy sztuczna inteligencja jest wykorzystywana w federalnym systemie opieki zdrowotnej do wspierania kluczowych decyzji diagnostycznych, człowiek nadzoruje proces w celu weryfikacji wyników narzędzi i pozwala uniknąć dysproporcji w dostępie do opieki zdrowotnej.

Kiedy sztuczna inteligencja jest wykorzystywana do wykrywania oszustw w usługach rządowych, wpływowe decyzje są nadzorowane przez człowieka, a osoby, których to dotyczy, mają możliwość poszukiwania naprawienia szkód wyrządzonych przez sztuczną inteligencję.

„Jeśli agencja nie może zastosować tych zabezpieczeń, musi zaprzestać korzystania z systemu sztucznej inteligencji, chyba że kierownictwo agencji uzasadni, dlaczego zwiększałoby to ryzyko dla bezpieczeństwa lub praw ogółem lub stwarzałoby niedopuszczalną przeszkodę w krytycznych działaniach agencji” – czytamy w arkuszu informacyjnym.

Zgodnie z nowymi wytycznymi wszelkie modele sztucznej inteligencji, kod i dane będące własnością rządu powinny zostać upublicznione, chyba że stanowią ryzyko dla działalności rządu.

W Stanach Zjednoczonych nadal nie ma przepisów regulujących sztuczną inteligencję. Rozporządzenie wykonawcze dotyczące sztucznej inteligencji zawiera wytyczne dla agencji rządowych podlegających władzy wykonawczej dotyczące podejścia do technologii. Chwila złożono kilka rachunków regulujących niektóre aspekty sztucznej inteligencji, nie poczyniono zbyt wielu ruchów w zakresie stanowienia prawa w zakresie technologii sztucznej inteligencji.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Najlepsze filmy, które opuszczą Netflix, Hulu i nie tylko w kwietniu 2024 r

Maj zbliża się wielkimi krokami, a wraz z nim nowa porcja ekscytujących filmów i programów telewizyjnych do obejrzenia. Spędzając ostatnie...

Apple @ Work: Dashlane dodaje integrację ze Splunk w celu analizowania danych o aktywności użytkownika

Usługa Apple @ Work jest dostarczana wyłącznie przez firmę Mosyle, jedyna zunifikowana platforma Apple. Mosyle to jedyne rozwiązanie, które integruje w jednej...

Użytkownicy Apple tracą dostęp do swoich identyfikatorów Apple ID bez żadnego wyjaśnienia

Wydaje się, że dziś wieczorem coraz bardziej powszechna jest awaria Apple ID, która dotyka użytkowników Apple. Wiele osób w mediach społecznościowych twierdzi,...
Advertisment