Przejrzystość jest niezbędna, gdy wkraczamy w erę “ rządów algorytmów ”


Od podejmowania decyzji o kwalifikowalności wiz po wykrywanie oszustw finansowych, przewidywanie wskaźników ponownego popełnienia przestępstwa po przydzielanie zasobów policyjnych, Systemy algorytmiczne w coraz większym stopniu pomagają rządowi w podejmowaniu ważnych decyzji. A ponieważ decydenci dostosowywali się do warunków pandemii, w których stare sposoby pracy zostały zakwestionowane, rozwój wspomaganego algorytmem podejmowania decyzji tylko przyspieszył.

Ale tak samo jest z niepokojem społecznym w związku z wykorzystaniem systemów algorytmicznych do podejmowania decyzji o dużym wpływie na nasze życie. Po algorytm używany przez Ofqual, Angielski organ nadzorujący egzaminy, obniżył o 40% oceny na poziomie maturalnym oceniane przez nauczycieli, uczniowie wyszli na ulice, wyrażając swoją opinię w sposób jednoznaczny. „F *** algorytm” przerodziło się w okrzyk i Ofqual rozpoczął żenującą wspinaczkę, porzucając algorytm w obliczu rosnącej presji opinii publicznej.

W następstwie fiaska a badanie przeprowadzone przez BCS, Chartered Institute for IT, wykazał, że 53% dorosłych Brytyjczyków „nie wierzy” w jakąkolwiek organizację, która posługuje się algorytmami przy wydawaniu ich opinii. Zaledwie 7% ufa algorytmom do podejmowania decyzji w edukacji i świadczeniu usług społecznych.

Uzasadnione obawy

Stosowanie algorytmów do podejmowania decyzji o dużym wpływie może wydawać się większym kłopotem niż jest to warte. Jednak zamiast podnosić ręce w obliczu oporu, organizacje rządowe i sektora publicznego mogą i powinny zrobić więcej, aby zaangażować się w uzasadnione obawy opinii publicznej i odbudować zaufanie do stosowania algorytmów.

Jednym z wyraźnych sposobów byłoby wstrzyknięcie zdrowej dawki przejrzystość algorytmicznego procesu podejmowania decyzji. Ministrowie i urzędnicy są regularnie przewożeni po węglach przez komitety i organy regulacyjne, aby zapewnić przejrzystość w sposobie prowadzenia interesów przez rząd.

I całkiem słusznie – przejrzystość jest siłą napędową naszej demokracji. Jako obywatele możemy analizować i rozumieć decyzje naszego rządu jedynie poprzez przesłuchanie dowodów, założeń i zasad, na których są one oparte.

Reklama

Ale w jaki sposób można osiągnąć przejrzystość i odpowiedzialność w nowym, wspaniałym świecie „rządów algorytmów”? Niedawny hackathon dotyczący polityki reform – gromadzenie decydentów, naukowców i regulatorów – skupiło się na tej kwestii.

Wszyscy zgodzili się, że przemyślana publiczna debata na temat wykorzystania algorytmów była niezbędnym pierwszym krokiem. Jednak zaangażowanie społeczne w tę kwestię jest nadal hamowane przez bardzo niski poziom świadomości na temat powszechności stosowania algorytmów przez organizacje sektora publicznego, takie jak oddziały policji i fundusze NHS.

Organizacje sektora publicznego muszą być o wiele bardziej otwarte w kwestii sposobów, w jakie już używają algorytmów do podejmowania decyzji. Utworzenie internetowego, przeszukiwalnego rejestru obecnych systemów algorytmów obejmujących władze centralne i lokalne oraz organizacje, takie jak siły policyjne i trusty NHS, byłoby pożądanym pierwszym krokiem. Helsinki i Amsterdam uruchomiły rejestry algorytmów i sztucznej inteligencji w 2020 r., Które dokumentują, dlaczego i jak algorytmy są wykorzystywane przez ich rządy.

Wprowadzenie rejestru na skalę ogólnokrajową dałoby obywatelom dostęp do informacji o tym, w jaki sposób decyzje algorytmiczne wpływają na nich, a co za tym idzie, ułatwiłoby świadomą debatę publiczną na temat tego, gdzie i jak można na dobre wykorzystać nowe technologie w sektorze publicznym.

Wbudowana przezroczystość

Jednak chociaż dokumentowanie obecnego stanu rzeczy jest już dawno spóźnione, nasi eksperci argumentowali, że przejrzystość musi być wbudowana w algorytmiczny proces podejmowania decyzji na znacznie wcześniejszym etapie. Zbyt często przejrzystość i odpowiedzialność są refleksjami – niezbędnymi reakcjami na gniew opinii publicznej, gdy coś idzie nie tak. Zamiast czekać, aż algorytmy zostaną wdrożone, organizacje powinny być otwarte dla publiczności podczas projektowania i opracowywania algorytmów.

Podobnie jak organizacje publikują oceny wpływu na środowisko przed rozpoczęciem projektów infrastrukturalnych, powinny publikować algorytmiczne oceny wpływu przed wdrożeniem systemów algorytmicznych. Te byłyby informować opinię publiczną o potencjalnych korzyściach i zagrożeniach związanych z algorytmem oraz mechanizmy, które należy wprowadzić, aby zapewnić jego bezpieczne użytkowanie na długo przed wprowadzeniem na rynek.

Zwrócenie szczególnej uwagi na wpływ stosowania algorytmów na grupy ryzyka powinno być centralnym elementem tych ocen. W przypadku zidentyfikowania wysokiego poziomu ryzyka dla określonych grup organizacje sektora publicznego powinny zaangażować się w przyszłe konsultacje, aby zapewnić, że obawy osób, na które może to mieć negatywny wpływ, zostaną przedstawione i uwzględnione.

Łagodzenie ryzyka

Wyposażeni z wyprzedzeniem w informacje o korzyściach i kosztach, zewnętrzni analitycy i sami obywatele mogą zbadać, czy poświęcono wystarczającą uwagę skutkom stosowania algorytmu i czy mechanizmy ograniczania ryzyka są odpowiednie do ochrony interesu publicznego.

Po wdrożeniu systemów algorytmicznych, proaktywny nadzór po wprowadzeniu na rynek, mający na celu wczesne zidentyfikowanie szkód wynikających z użycia algorytmów i podjęcie odpowiednich działań, musi stać się normą, zamiast obecnego systemu reagowania na nagłówki gazet i gniew opinii publicznej po fakcie.

Tylko budując przejrzystość na każdym etapie algorytmicznego procesu decyzyjnego możemy zbudować zaufanie niezbędne do wykorzystania potencjału cyfrowych usług publicznych. Jeśli rząd według algorytmu ma być przyszłością, przejrzystość nie podlega negocjacjom.

Sebastian Rees jest badaczem w niezależnym think tanku Reform.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Film Seinfelda Pop-Tart Unfrosted w serwisie Netflix to wstyd

Dorastając, lubiłem Pop-Tarts. Nie sądzę, żeby było to szczególnie nowatorskie uczucie u amerykańskiego dziecka; to pyszne małe kwadraciki ciasta...

Czego dowiedzieliśmy się z wczorajszych komentarzy Tima Cooka?

W środku nie było niespodzianek Wczorajszy raport o wynikach Appleprzy czym spółka odnotowała spadek przychodów w ujęciu rok do roku o blisko 5...

Lords mówią, że rząd musi „wykroczyć poza” obecne podejście do LLM

Komisja Lorda wzywa rząd do uczynienia konkurencji rynkowej w zakresie sztucznej inteligencji (AI) „wyraźnym celem polityki”, krytykując jednocześnie jego „nieodpowiednie i pogarszające się”...
Advertisment