Wielka Brytania ogłasza standard przejrzystości algorytmicznej


Rząd Wielkiej Brytanii ogłosił nowy standard sztucznej inteligencji (AI), który ma zostać przyjęty przez departamenty rządowe i organy sektora publicznego.

Opracowany przez Centralne Biuro ds. Cyfryzacji i Danych Rady Ministrów (CDDO) ruch ten jest opisywany jako światowy pierwszy i jest wynikiem współpracy z Centrum Etyki i Innowacji w zakresie Danych (CDEI) oraz innymi zainteresowanymi stronami z sektora publicznego i prywatnego.

Wynika przegląd na temat błędu algorytmicznego w podejmowaniu decyzji przeprowadzony przez CDEI, którego jednym z kluczowych zaleceń jest wdrożenie obowiązkowego obowiązku przejrzystości na organizacjach sektora publicznego wykorzystujących algorytmy do wspierania ważnych decyzji mających wpływ na jednostki.

„Algorytmy mogą być wykorzystywane przez organizacje sektora publicznego, aby pomóc im w podejmowaniu bardziej sprawiedliwych decyzji, poprawie wydajności usług publicznych i obniżeniu kosztów związanych z dostawą” – powiedział Lord Agnew, minister stanu w Urzędzie Rady Ministrów.

„Jednak muszą być wykorzystywane w procesach decyzyjnych w sposób, który zarządza ryzykiem, utrzymuje najwyższe standardy przejrzystości i odpowiedzialności oraz buduje wyraźne dowody wpływu”.

Publikacja standardów była wynikiem zaangażowania CDDO i CDEI z firmą doradztwa strategicznego BritainThinks w czerwcu 2021 r. w celu przeprowadzenia przemyślanego ćwiczenia zaangażowania publicznego w celu zbadania postaw społeczeństwa wobec przejrzystości algorytmicznej w sektorze publicznym.

Reklama

Skonsultowano się również z interesariuszami z wewnątrz i na zewnątrz rządu w celu stworzenia ram, w tym trustu badawczego Reform, Forum Imperial College London i CDEI, w celu zorganizowania hackathonu dotyczącego polityki. Podczas wydarzenia międzynarodowi eksperci z rządów, środowisk akademickich i przemysłu dyskutowali i opracowali praktyczne rozwiązania wyzwań stawianych przez przejrzystość algorytmiczną.

Podzielony na dwa poziomy standard zawiera krótki opis narzędzia algorytmicznego, w tym w jaki sposób i dlaczego jest ono używane. Druga warstwa zawiera bardziej szczegółowe informacje o działaniu narzędzia, zestawach danych, które zostały użyte do trenowania modelu oraz poziomie zaangażowanego nadzoru ludzkiego.

Rząd oczekuje standardu, który jest również zgodny z zobowiązaniami podjętymi w Narodowa Strategia AI i Narodowa Strategia Danych, pomoże zespołom zachować „znaczącą przejrzystość” w kwestii roli sztucznej inteligencji w podejmowaniu decyzji, zwłaszcza gdy algorytmy mogą mieć wpływ prawny lub ekonomiczny na jednostki.

Pilotaż standardu rozpocznie się w różnych departamentach i organach rządowych w nadchodzących miesiącach, a po tej początkowej fazie nastąpi przegląd przez CDDO na podstawie informacji zwrotnych. Formalne zatwierdzenie przez Urząd ds. Standardów Danych zostanie złożony w 2022 r.

Gabinet powiedział, że o stworzeniu standardu informowały również organizacje, takie jak Instytut Alana Turinga i Instytut Ady Lovelace, oraz organizacje międzynarodowe, takie jak OECD i Partnerstwo Otwartego Rządu, które opowiadały się za przejrzystością w zakresie zagrożeń związanych z Podejmowanie decyzji w oparciu o sztuczną inteligencję. Organy ostrzegły, że analiza roli algorytmów w procesach decyzyjnych jest potrzebna jako sposób na budowanie zaufania obywateli.

Publikując standard, rząd rozumie, że „uprawnia” ekspertów i opinię publiczną do angażowania się w dane i zapewniania zewnętrznej kontroli. Oczekuje się również, że większa przejrzystość wykorzystania sztucznej inteligencji w sektorze publicznym będzie promować „godne zaufania innowacje” i umożliwi złagodzenie niezamierzonych konsekwencji na wcześniejszym etapie.

„Organizacje coraz częściej sięgają po algorytmy, aby zautomatyzować lub wspierać podejmowanie decyzji” – powiedział Adrian Weller, dyrektor programowy ds. sztucznej inteligencji w Instytucie Alana Turinga i członek rady doradczej CDEI. „Mamy okazję do wprowadzenia właściwych mechanizmów zarządzania w miarę wzrostu adopcji”.

Zdaniem Wellera, to posunięcie nie tylko pomoże w zbudowaniu odpowiedniego zaufania do korzystania z algorytmicznego podejmowania decyzji przez sektor publiczny, ale również będzie dźwignią podnoszenia standardów przejrzystości w sektorze prywatnym.

Imogen Parker, zastępca dyrektora ds. polityki w Instytucie Ada Lovelace, powiedziała, że ​​znacząca przejrzystość narzędzi opartych na sztucznej inteligencji w organizacjach rządowych jest „istotną częścią godnego zaufania cyfrowego sektora publicznego”.

Opisując standard przejrzystości jako „ważny krok” w kierunku większego zaufania, Parker powiedział, że ramy są „cennym wkładem w szerszą dyskusję na temat odpowiedzialności algorytmicznej w sektorze publicznym”.

Dodała: „Z niecierpliwością czekamy na próby, testy i iteracje, a następnie przez departamenty rządowe i organy sektora publicznego publikujące ukończone standardy wspierające modelowanie i rozwój dobrych praktyk”.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Użytkownicy Apple tracą dostęp do swoich identyfikatorów Apple ID bez żadnego wyjaśnienia

Wydaje się, że dziś wieczorem coraz bardziej powszechna jest awaria Apple ID, która dotyka użytkowników Apple. Wiele osób w mediach społecznościowych twierdzi,...

Czasem nie ma nic złego w przyznaniu się do błędu, Apple

Apple ma problem z przyznaniem się do błędu. W marketingu firmy zawsze chodziło o doskonałość, a przyznanie się, że coś jest nie...

Dlaczego Xenomorph z Alien jest wciąż idealnym złoczyńcą science-fiction

Ta funkcja w Ridley Scott Obcy a franczyza, którą uruchomiła, została pierwotnie opublikowana jako część pakiet poświęcony najbardziej ukochanym złoczyńcom science...
Advertisment