TUC publikuje wniosek ustawodawczy mający na celu ochronę pracowników przed sztuczną inteligencją


Kongres Związków Zawodowych (TUC) opublikował gotową do wdrożenia ustawę regulującą sztuczną inteligencję (AI) w miejscu pracy, ustanawiającą szereg nowych praw i zabezpieczeń mających na celu zarządzanie niekorzystnymi skutkami zautomatyzowanego podejmowania decyzji na pracownicy.

Stosowanie A podejście oparte na ryzyku podobne do tego przyjętego przez Unię Europejską w niedawno uchwalonej ustawie o sztucznej inteligencji projekt ustawy TUC o sztucznej inteligencji (zatrudnienie i regulacje). w dużej mierze zajmuje się wykorzystaniem sztucznej inteligencji do podejmowania decyzji „wysokiego ryzyka”, które definiuje jako sytuację, w której system wywołuje „skutki prawne lub inne podobnie znaczące skutki”.

TUC stwierdziło, że sztuczna inteligencja jest wykorzystywana w całej gospodarce do podejmowania ważnych decyzji dotyczących ludzi, w tym tego, czy znajdą pracę, jak i gdzie ją wykonują oraz czy zostaną wynagrodzeni, zdyscyplinowani czy zwolnieni.

Dodała, że ​​wykorzystywanie systemów sztucznej inteligencji do algorytmicznego zarządzania pracownikami w ten sposób już ma na nich „znaczący wpływ” i prowadzi do dyskryminacyjnych i nieuczciwych skutków, braku kontroli nad danymi, utraty prywatności i ogólnych intensyfikacja pracy.

„Brytyjskie prawo pracy po prostu nie nadąża za szybkim tempem zmian technologicznych. Przegrywamy wyścig o regulowanie sztucznej inteligencji w miejscu pracy” – powiedziała zastępczyni sekretarza generalnego TUC, Kate Bell.

Brytyjskie prawo pracy po prostu nie nadąża za szybkim tempem zmian technologicznych. Przegrywamy wyścig o regulację sztucznej inteligencji w miejscu pracy

Kate Bell, TUC

„Sztuczna inteligencja już dokonuje zmian w miejscu pracy, włączając w to sposób zatrudniania ludzi, zarządzania wynikami i zwalniania. Musimy pilnie zainstalować nowe bariery ochronne, aby chronić pracowników przed wyzyskiem i dyskryminacją. To powinno być priorytetem narodowym.”

Reklama

Adam Cantwell Corn, szef kampanii i polityki w grupie kampanii Connected by Data, która brała udział w opracowywaniu projektu ustawy o sztucznej inteligencji (zatrudnienie i regulacje), dodał: „W debacie na temat tego, jak zwiększyć bezpieczeństwo sztucznej inteligencji, musimy wyjść poza pomysły oraz przekształcić wartości i zasady w praktyczne prawa i obowiązki. Ustawa robi dokładnie to i określa kluczowy wskaźnik tego, co będzie dalej”.

Chociaż rząd Wielkiej Brytanii teraz to mówi można byłoby wprowadzić wiążące zasady w odniesieniu do systemów sztucznej inteligencji obarczonych największym ryzykiemjak dotąd niechętnie tworzyła przepisy dotyczące sztucznej inteligencji, wielokrotnie stwierdzając, że nie przyjmie przepisów, dopóki nie nadejdzie odpowiedni czas.

Prawa i obowiązki podlegające zaskarżeniu

Koncentrując się na zapewnieniu ochrony i praw pracownikom, osobom poszukującym pracy i związkom zawodowym – a także obowiązkom pracodawców i potencjalnych pracodawców – kluczowe przepisy ustawy obejmują nałożenie na pracodawców obowiązku przeprowadzania szczegółowych ocen ryzyka AI w miejscu pracy (WAIRA) zarówno przed, jak i po zatrudnieniu. wdrożenia, utworzą rejestry działających systemów podejmowania decyzji przez sztuczną inteligencję oraz odwrócą ciężar dowodu w sprawach dotyczących zatrudnienia, aby ułatwić udowodnienie dyskryminacji AI w pracy.

W ramach WAIRA projekt ustawy ustanowiłby również procesy konsultacji z pracownikami, co stanowi ustawowe prawo związkowców do konsultowania się przed wdrożeniem obarczonym wysokim ryzykiem, a także umożliwiłby dostęp do informacji z czarnej skrzynki na temat systemów, które stawiałyby pracowników i związki zawodowe w trudnej sytuacji. lepszą pozycję, aby zrozumieć, jak działają systemy.

Inne przepisy obejmują całkowity zakaz pseudonaukowe rozpoznawanie emocjidziałanie piaskownice regulacyjne testowanie nowych systemów, aby rozwój sztucznej inteligencji mógł być kontynuowany w bezpiecznym środowisku, oraz nowa obrona audytowa dla pracodawców, która umożliwiłaby im obronę przed zarzutami dyskryminacji, jeśli spełniają rygorystyczne standardy audytu.

Projekt ustawy przyznałby także pracownikom szereg praw, w tym prawo do spersonalizowanego oświadczenia wyjaśniającego, w jaki sposób sztuczna inteligencja podejmuje wobec nich decyzje obarczone wysokim ryzykiem, prawo do kontroli zautomatyzowanych decyzji przez człowieka, prawo do rozłączeniaoraz prawo związkowców do otrzymania takich samych danych o pracownikach, jakie zostałyby przekazane systemowi sztucznej inteligencji.

TUC stwierdziła, że ​​te połączone środki w dużym stopniu przyczynią się do naprawienia obecnego braku równowagi władzy nad danymi w pracy.

„Pilnie potrzebne są przepisy prawne i rygorystyczne regulacje, aby zapewnić sprawiedliwy podział korzyści płynących ze sztucznej inteligencji i uniknięcie szkód” – stwierdzili we wspólnym oświadczeniu Robin Allen KC i Dee Masters z Cloisters. „Niezliczeni komentatorzy opowiadali się za potrzebą kontrolowania sztucznej inteligencji w pracy, ale do dzisiaj żaden nie podjął się niezbędnych prac związanych z opracowaniem przepisów”.

Podejście oparte na współpracy i angażujące wiele zainteresowanych stron

Chociaż tekst został opracowany przez AI Law Consultancy przy Cloisters Chambers przy wsparciu Minderoo Center for Technology and Democracy na Uniwersytecie Cambridge, sam projekt ustawy został opracowany przez specjalny komitet doradczy powołany przez TUC we wrześniu 2023 r.

W debacie na temat zwiększenia bezpieczeństwa sztucznej inteligencji musimy wyjść poza mętne pomysły i przekształcić wartości i zasady w praktyczne prawa i obowiązki. Ustawa robi dokładnie to i określa kluczowy wskaźnik tego, co będzie dalej

Adam Cantwell Corn, połączony danymi

TUC, wypełniona przedstawicielami różnych zainteresowanych stron – w tym Instytutu Ady Lovelace, Instytutu Alana Turinga, Connected by Data, TechUK, Brytyjskiego Towarzystwa Komputerowego, United Tech i Allied Workers, GMB i parlamentarzystów międzypartyjnych – TUC podkreśliła znaczenie opartego na współpracy i wielostronnego podejścia do rozwoju polityki w zakresie sztucznej inteligencji.

Dodał, że chociaż istnieje już szereg przepisów mających zastosowanie do korzystania z technologii w pracy – w tym brytyjskie ogólne rozporządzenie o ochronie danych (RODO), przepisy dotyczące informacji i konsultacji, różne przepisy dotyczące zdrowia i bezpieczeństwa oraz Europejska Konwencja o ochronie danych osobowych, Prawa (EKPC) – w obecnych ramach prawnych nadal występują znaczne luki.

Należą do nich brak przejrzystości i możliwości wyjaśnienia, brak ochrony przed dyskryminującymi algorytmami, brak równowagi władzy nad danymi oraz brak głosu i konsultacji pracowników.

Kolejna ustawa dotycząca sztucznej inteligencji skupiona na pracownikach została wprowadzona przez posła Partii Pracy Micka Whitely’ego w maju 2023 rktóre w podobny sposób skupiało się na potrzebie znaczących konsultacji z pracownikami na temat sztucznej inteligencji, potrzebie obowiązkowych ocen skutków i audytów oraz stworzeniu formalnego prawa do odłączenia się.

Choć projekt ustawy miał pierwsze czytanie w tym samym miesiącu, odroczenie jej przez Parlament w październiku 2023 r. przed drugim czytaniem w listopadzie oznacza, że ​​nie będzie dalszych postępów.

A po powrocie parlamentu konserwatywny lord Chris Holmes przedstawił odrębną ustawę o sztucznej inteligencjiw którym podkreślono potrzebę „znaczącego, długoterminowego zaangażowania społecznego w zakresie możliwości i zagrożeń stwarzanych przez sztuczną inteligencję”.

W rozmowie z „Computer Weekly” w marcu 2024 rHolmes stwierdził, że podejście brytyjskiego rządu „poczekaj i zobacz” do regulowania sztucznej inteligencji nie jest wystarczająco dobre, gdy obecnie dzieją się prawdziwe szkody.

„Ludzie już podejmują błędne decyzje dotyczące sztucznej inteligencji podczas rekrutacji, tworzenia krótkich list i szkolnictwa wyższego i nie tylko mogą znaleźć się po niewłaściwej stronie decyzji dotyczącej sztucznej inteligencji, ale często mogą nawet nie wiedzieć, że tak jest, ” powiedział.

W przemówieniu na wydarzeniu poprzedzającym światowy szczyt Organizacji Narodów Zjednoczonych (ONZ) AI for Good, który odbędzie się pod koniec maja 2024 r., sekretarz generalna Międzynarodowego Związku Telekomunikacyjnego (ITU), Doreen Bogdan-Martin, stwierdziła, że ​​głównym celem szczyt obejmowałby „przejście od zasad do wdrożenia”.

Dodała, że ​​„standardy są kamieniem węgielnym sztucznej inteligencji”, ale standardy te należy tworzyć wspólnie za pośrednictwem platform obejmujących wiele zainteresowanych stron, takich jak ONZ.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Najnowszy 10,9-calowy iPad firmy Apple kosztuje 470 USD (zaoszczędź 129 USD), iPhone 14 Pro 705 USD, Apple Watch Series 9 i więcej

Jesteśmy już w połowie tygodnia pracy z nową porcją nowych ofert – wszystkie z nagłówkiem iPad 10. generacji firmy Apple w 470 dolarów....

LastPass staje się niezależny przez ponad rok po poważnych naruszeniach

Minęło ponad półtora roku, odkąd LastPass padł ofiarą serii głośnych ataków hakerskich, a twierdzi teraz firma oddzieliła się od swojej spółki-matki GoTo. GoTo...

Anthropic wprowadza Claude AI na iPhone’a i iPada

Jeśli nadążasz za generatywną sztuczną inteligencją i dużymi modelami językowymi na iPhonie, być może wiesz, że sztuczna inteligencja Claude firmy Anthropic była szczególnie...
Advertisment