Lord Clement-Jones, członek Izby Lordów z ramienia Partii Liberalnych Demokratów, przedstawił projekt ustawy prywatnej mający na celu uregulowanie stosowania przez organy publiczne sztucznej inteligencji (AI), algorytmów i technologii automatycznego podejmowania decyzji, powołując się na potrzebę uniknięcia kolejnego Skandal na poczcie.
Zgodnie z propozycjami – przedstawionymi przez Lorda Clementa-Jonesa 9 września – jeśli „komputer powie nie” decyzji w sprawie świadczeń, imigracji lub podobnej, obywatel będzie miał prawo dostępu do informacji o powodach takiej decyzji, aby mieć możliwość jej zakwestionowania.
W przypadkach, gdy obywatel zdecyduje się zakwestionować zautomatyzowaną decyzję podjętą w jego sprawie, Clement-Jones Projekt ustawy o algorytmicznych i zautomatyzowanych systemach podejmowania decyzji w organach władzy publicznej zobowiązywałoby również rząd do zapewnienia niezależnej usługi rozstrzygania sporów.
Organy publiczne byłyby również zobowiązane do publikowania ocen skutków wszelkich zautomatyzowanych algorytmów lub algorytmów sztucznej inteligencji, które wpływają na procesy decyzyjne (co obejmowałoby obowiązkową ocenę stronniczości w celu zapewnienia zgodności z ustawą o równości i ustawą o prawach człowieka), a także do prowadzenia rejestru przejrzystości w celu zapewnienia szerszej informacji publicznej na temat sposobu korzystania z każdego systemu.
„Skandal Post Office/Horizon pokazuje bolesne koszty ludzkie, gdy nie ma odpowiednich kontroli, które mogłyby zakwestionować te zautomatyzowane systemy. Obecnie nie ma prawnych zobowiązań władz publicznych do transparentności w kwestii tego, kiedy i jak używają tych algorytmów. Wzywam rząd do poparcia tych zmian” – powiedział Lord Clement-Jones.
„Zbyt często w Wielkiej Brytanii stanowimy prawo, gdy szkody już zostały wyrządzone. Musimy być proaktywni, a nie reaktywni, jeśli chodzi o ochronę obywateli i ich interakcji z nowymi technologiami. Musimy być o krok przed innymi, jeśli chodzi o regulowanie AI. Po prostu nie możemy ryzykować kolejnego skandalu Horizon”.
Aby zwiększyć czytelność zautomatyzowanych decyzji, projekt ustawy zawiera przepisy mające na celu zapewnienie, że wszelkie systemy wdrażane przez organy publiczne będą zaprojektowane z myślą o automatycznym rejestrowaniu danych, tak aby możliwe było ciągłe monitorowanie i sprawdzanie ich działania.
Zawiera ona również dodatkowe przepisy zakazujące zakupu systemów, których nie da się poddać kontroli, w tym w przypadku gdy organy publiczne mają utrudnione monitorowanie ze względu na środki umowne lub techniczne, a także interesy własności intelektualnej dostawców.
Inni parlamentarzyści wcześniej złożyli podobne prywatne projekty ustaw dotyczące sztucznej inteligencji, w tym lord Christopher Holmes, który przedstawił Sztuczna inteligencja [Regulation] Rachunek w listopadzie 2023 r. na podstawie „poczekajmy i zobaczmy” podejście ówczesnego rządu do ustawodawstwa dotyczącego sztucznej inteligencji wyrządziłoby więcej szkody niż pożytku; a poseł Partii Pracy Mick Whitley, który przedstawił swoje projekt ustawy o sztucznej inteligencji skoncentrowany na pracownikach w maju 2023 r. aby poradzić sobie ze szkodliwym wykorzystaniem sztucznej inteligencji w miejscu pracy.
W kwietniu 2024 r. Kongres Związków Zawodowych (TUC) również opublikował „gotowe do wprowadzenia” prawo regulujące kwestie sztucznej inteligencji w miejscu pracyw którym wprowadzono szereg nowych praw i zabezpieczeń mających na celu zarządzanie negatywnymi skutkami zautomatyzowanego podejmowania decyzji na pracowników.
Od czasu opublikowania przez poprzedni rząd konserwatywny swojego Biała księga na temat sztucznej inteligencji w marcu 2023 r. toczyła się znacząca debata na temat tego, czy nakreślone przez nią „zwinne, proinnowacyjne” ramy regulujące technologię sztucznej inteligencji to właściwe podejście.
Zgodnie z tymi propozycjami rząd miałby polegać na istniejących organach regulacyjnych, które miałyby tworzyć dostosowane, zależne od kontekstu przepisy uwzględniające sposoby wykorzystania technologii w kontrolowanych przez nie sektorach.
Po opublikowaniu białej księgi rząd szeroko promował potrzebę bezpieczeństwa sztucznej inteligencji na podstawie założenia, że przedsiębiorstwa nie wdrożą sztucznej inteligencji, dopóki nie będą miały pewności, że ryzyko związane z tą technologią – od stronniczości i dyskryminacji po wpływ na zatrudnienie i sprawiedliwość – jest skutecznie łagodzone.
Podczas gdy poprzedni rząd spędził ostatnie miesiące, podwajając wysiłki na rzecz tego ogólnego podejścia w swojej formalna odpowiedź na konsultacje dotyczące białej księgi od stycznia 2024 r. twierdząc, że nie będzie uchwalać przepisów dotyczących sztucznej inteligencji, dopóki nie nadejdzie odpowiedni czaspóźniej w lutym 2024 r. stwierdziła, że mogą to być wiążące zasady wprowadzone w przyszłości dla systemów AI obarczonych najwyższym ryzykiem.
Chociaż najnowsze przemówienie królewskie powiedział, że nowy rząd Partii Pracy „będzie dążył do ustanowienia odpowiednich przepisów, aby nałożyć wymogi na osoby pracujące nad rozwojem najpotężniejszych modeli sztucznej inteligencji”, nie ma planów dotyczących przepisów dotyczących konkretnie sztucznej inteligencji.
Jedyną wzmianką o sztucznej inteligencji w omówieniu poprzedzającym przemówienie była wzmianka o projekcie ustawy o bezpieczeństwie produktów i metrologii, której celem jest reagowanie na „nowe ryzyka i możliwości związane z produktami, aby umożliwić Wielkiej Brytanii dotrzymanie kroku postępowi technologicznemu, takiemu jak sztuczna inteligencja”.
Choć projekty ustaw zgłaszane przez posłów rzadko stają się prawem, często służą jako mechanizm wywoływania debat nad ważnymi kwestiami i badania opinii w parlamencie.