Każda agencja federalna w USA musi zatrudnić głównego specjalistę ds. sztucznej inteligencji


Wszystkie amerykańskie agencje federalne będą teraz musiały mieć starszego przywódcę nadzorującego wszystkie używane przez nie systemy sztucznej inteligencji, ponieważ rząd chce mieć pewność, że wykorzystanie sztucznej inteligencji w służbie publicznej pozostanie bezpieczne.

Wiceprezydent Kamala Harris ogłosiła na odprawie z reporterami nowe wytyczne OMB i stwierdziła, że ​​agencje muszą również powołać rady zarządzające AI, aby koordynować sposób wykorzystania sztucznej inteligencji w agencji. Agencje będą również musiały składać do Biura Zarządzania i Budżetu (OMB) roczne sprawozdanie zawierające wykaz wszystkich używanych przez siebie systemów sztucznej inteligencji, wszelkich związanych z nimi zagrożeń oraz sposobów ich ograniczania.

„Poleciliśmy wszystkim agencjom federalnym wyznaczenie dyrektora ds. sztucznej inteligencji posiadającego doświadczenie, wiedzę specjalistyczną i uprawnienia do nadzorowania wszystkich technologii sztucznej inteligencji wykorzystywanych przez tę agencję, abyśmy mieli pewność, że sztuczna inteligencja jest wykorzystywana w sposób odpowiedzialny, rozumiejąc, że musimy mieć starszych przywódców w całym naszym rządzie, których zadaniem jest nadzorowanie wdrażania i stosowania sztucznej inteligencji” – powiedział Harris reporterom.

Dyrektor ds. sztucznej inteligencji niekoniecznie musi być nominacją polityczną, choć zależy to od struktury agencji federalnej. Do lata muszą zostać utworzone rady zarządzające.

Niniejsze wytyczne stanowią rozwinięcie wcześniej ogłoszonych zasad przedstawionych w dokumencie Zarządzenie wykonawcze administracji Bidena dotyczące sztucznej inteligencjico wymagało od urzędów federalnych stworzenia standardów bezpieczeństwa i zwiększenia liczby talentów AI pracujących w rządzie.

Niektóre agencje rozpoczęły zatrudnianie dyrektorów AI jeszcze przed dzisiejszym ogłoszeniem. The Departament Sprawiedliwości ogłosił Jonathana Mayera jako pierwsze CAIO w lutym. Pokieruje zespołem ekspertów ds. cyberbezpieczeństwa, który będzie pracował nad znalezieniem sposobów wykorzystania sztucznej inteligencji w egzekwowaniu prawa.

Reklama

Według przewodniczącej OMB, Shalandy Young, rząd USA planuje zatrudnić do lata 100 specjalistów zajmujących się sztuczną inteligencją.

Częścią obowiązków urzędników ds. sztucznej inteligencji w agencjach i komitetów zarządzających jest częste monitorowanie ich systemów sztucznej inteligencji. Young powiedział, że agencje muszą przedstawić spis produktów AI, z których korzystają. Jeżeli jakikolwiek system sztucznej inteligencji zostanie uznany za wystarczająco „wrażliwy”, aby go pominąć na liście, agencja musi publicznie podać powód jego wykluczenia. Agencje muszą także niezależnie ocenić ryzyko bezpieczeństwa każdej platformy sztucznej inteligencji, z której korzystają.

Agencje federalne muszą także sprawdzać, czy wdrażana przez nie sztuczna inteligencja spełnia zabezpieczenia, które „ograniczają ryzyko dyskryminacji algorytmicznej i zapewniają społeczeństwu przejrzystość w zakresie sposobu, w jaki rząd wykorzystuje sztuczną inteligencję”. Arkusz informacyjny OMB podaje kilka przykładów, w tym:

Na lotnisku podróżni będą mogli zrezygnować z funkcji rozpoznawania twarzy TSA bez żadnych opóźnień i utraty miejsca w kolejce.

Kiedy sztuczna inteligencja jest wykorzystywana w federalnym systemie opieki zdrowotnej do wspierania kluczowych decyzji diagnostycznych, człowiek nadzoruje proces w celu weryfikacji wyników narzędzi i pozwala uniknąć dysproporcji w dostępie do opieki zdrowotnej.

Kiedy sztuczna inteligencja jest wykorzystywana do wykrywania oszustw w usługach rządowych, wpływowe decyzje są nadzorowane przez człowieka, a osoby, których to dotyczy, mają możliwość poszukiwania naprawienia szkód wyrządzonych przez sztuczną inteligencję.

„Jeśli agencja nie może zastosować tych zabezpieczeń, musi zaprzestać korzystania z systemu sztucznej inteligencji, chyba że kierownictwo agencji uzasadni, dlaczego zwiększałoby to ryzyko dla bezpieczeństwa lub praw ogółem lub stwarzałoby niedopuszczalną przeszkodę w krytycznych działaniach agencji” – czytamy w arkuszu informacyjnym.

Zgodnie z nowymi wytycznymi wszelkie modele sztucznej inteligencji, kod i dane będące własnością rządu powinny zostać upublicznione, chyba że stanowią ryzyko dla działalności rządu.

W Stanach Zjednoczonych nadal nie ma przepisów regulujących sztuczną inteligencję. Rozporządzenie wykonawcze dotyczące sztucznej inteligencji zawiera wytyczne dla agencji rządowych podlegających władzy wykonawczej dotyczące podejścia do technologii. Chwila złożono kilka rachunków regulujących niektóre aspekty sztucznej inteligencji, nie poczyniono zbyt wielu ruchów w zakresie stanowienia prawa w zakresie technologii sztucznej inteligencji.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Bloomberg: Funkcje AI w iOS 18 będą obsługiwane przez centra danych wyposażone w krzem firmy Apple

Idąc śladem A dziennik "Wall Street raport że Apple opracowuje obecnie własne chipy przeznaczone do zasilania centrów danych zorientowanych na sztuczną inteligencję Marka...

Jak kampania Vecna ​​firmy D&D utrzymuje pod kontrolą potężne postacie na poziomie 20

Jedna z największych atrakcji Vecna: Wigilia zagładyostatnią kampanię w ciągu dziesięciu lat Piąta edycja Dungeons & Dragons, jest fakt, że można...

Apple wypuszcza system macOS Sonoma 14.5 RC z informacjami o wersji

Po wersjach kandydujących do wydania iOS i inne systemy operacyjne w tym tygodniu Apple udostępniło testerom system macOS 14.5 RC. Ta wersja...
Advertisment