Lord Holmes: Wielka Brytania nie może „poczekać” z uregulowaniem sztucznej inteligencji


Podejście brytyjskiego rządu „poczekaj i zobacz” do regulowania sztucznej inteligencji (AI) nie jest wystarczająco dobre, gdy obecnie dzieją się prawdziwe szkody, mówi lord konserwatywny Lord Christopher Holmes, który wprowadził rachunek członków prywatnych stworzenie ustawowego nadzoru nad technologią.

Ponieważ rząd opublikował swój Oficjalna księga dotycząca sztucznej inteligencji w marcu 2023 r. odbyła się poważna debata na temat tego, czy nakreślone w nim „elastyczne, proinnowacyjne” ramy regulacji technologii są właściwym podejściem.

Zgodnie z tymi propozycjami rząd miałby polegać na istniejących organach regulacyjnych w zakresie tworzenia dostosowanych, dostosowanych do kontekstu przepisów, które odpowiadały sposobom wykorzystania technologii w kontrolowanych przez nich sektorach.

Od czasu opublikowania białej księgi pt. rząd szeroko promuje potrzebę bezpieczeństwa sztucznej inteligencjina tej podstawie, że przedsiębiorstwa nie zastosują sztucznej inteligencji, dopóki nie będą miały pewności, że ryzyko związane z tą technologią – począwszy od uprzedzeń i dyskryminacji po wpływ na wyniki w zakresie zatrudnienia i wymiaru sprawiedliwości – jest skutecznie ograniczane.

Chociaż rząd podwoił to ogólne podejście w swoim formalną odpowiedź na konsultacje dotyczące białej księgi od stycznia 2024 r., i stwierdziła, że ​​nie przyjmie przepisów dotyczących sztucznej inteligencji, dopóki nie nadejdzie odpowiedni czasteraz tam jest napisane mogłyby obowiązywać wiążące zasady wprowadzone w przyszłości dla najbardziej ryzykownych systemów AI.

Rozmawiam na ten temat z Computer Weekly proponowane przepisy dotyczące sztucznej inteligencji – który został przedstawiony Parlamentowi w listopadzie 2023 r. i przeszedł przez niego drugie czytanie 22 marca – Holmes stwierdził, że „poczekać i zobaczyć nie jest odpowiednią reakcją”, ponieważ oznacza „obarczanie ryzykiem” związanym z technologią i brak możliwości wykorzystania jej korzyści.

Reklama

„Ludzie już podejmują błędne decyzje dotyczące sztucznej inteligencji podczas rekrutacji, tworzenia krótkich list i szkolnictwa wyższego i nie tylko mogą znaleźć się po niewłaściwej stronie decyzji dotyczącej sztucznej inteligencji, ale często mogą nawet nie wiedzieć, że tak jest, ” powiedział.

Chcę zobaczyć filozofa, etyka, artystę, startup branżowy, firmę scalającą, inwestora kapitału wysokiego ryzyka – całą gamę ludzi, którzy mogą wnieść swoją wiedzę

Lorda Chrisa Holmesa

Holmes twierdzi, że jego projekt ustawy opiera się na siedmiu zasadach zaufania, przejrzystości, włączenia społecznego, innowacyjności, interoperacyjności, zaangażowania społecznego i odpowiedzialności oraz ustanowiłby centralny, horyzontalny organ regulacyjny, który miałby zarządzać obecnym podejściem sektorowym rządu i koordynować je. Spowodowałoby to również utworzenie „funkcjonariuszy odpowiedzialnych za sztuczną inteligencję”, którzy pełniliby w przedsiębiorstwach funkcję podobną do inspektorów ochrony danych, a także ustanowiłoby jasne zasady dotyczące etykietowania danych i obowiązków związanych z własnością intelektualną, zgodnie z obowiązującymi przepisami.

Ustawa miałaby także „wdrożyć program znaczącego, długoterminowego zaangażowania społecznego na temat możliwości i zagrożeń stwarzanych przez sztuczną inteligencję” oraz w większym stopniu wykorzystywać piaskownice regulacyjne w celu bezpiecznego testowania technologii przed faktycznym wdrożeniem.

Choć projekty ustaw dotyczących posłów prywatnych rzadko stają się prawem, często wykorzystuje się je jako mechanizm wywołujący debaty na ważne tematy i sprawdzający opinię w parlamencie.

Bezpieczeństwo, integracja i uczestnictwo

Odnotowując nacisk, jaki rząd kładzie na bezpieczeństwo sztucznej inteligencji, Holmes stwierdził, że „nieco dziwnie” to widzieć tyle dyskusji na temat potencjalnego zagrożenia egzystencjalnego tej technologii w przededniu spotkania z premierem Szczyt bezpieczeństwa AI w Bletchley Park w zeszłym roku, jedynie po to, by przyjąć podejście w dużej mierze dobrowolne.

„Jeśli jesteśmy świadomi elementu bezpieczeństwa, to koniecznie i powinniśmy łączyć elementy, w których sztuczna inteligencja już wpływa na życie ludzi. Sposobem na zapewnienie bezpieczeństwa i pozytywnego, etycznego wykorzystania sztucznej inteligencji z pewnością jest wprowadzenie przepisów” – powiedział.

„Argument rządu brzmi mniej więcej tak: «Jest za wcześnie, zdusicie innowacje, zanim miały szansę wystartować, potencjalnie hamujecie inwestycje», ale wszystkie wnioski wyciągnięte z historii pokazują nam, że jeśli mieć odpowiednie ramy prawne, jest to pozytywna korzyść, ponieważ inwestorzy i innowatorzy znają środowisko, w którym się znajdują”.

Dla Holmesa zapewnienie bezpieczeństwa systemów sztucznej inteligencji dla biznesu i społeczeństwa polega na zapewnieniu ich włączania już od samego początku.

„Jeśli chcesz uzyskać najlepsze wyniki, musisz – absolutnie musisz – przyjąć podejście włączające już na etapie projektowania” – powiedział. „To włączenie umożliwia prawdziwą, wszechstronną innowację”.

Łączenie tego z utworzenie przez rząd Instytutu Bezpieczeństwa AI w następstwie szczytu w Bletchley Holmes dodał, że do organizacji, która obecnie składa się głównie z ekspertów technicznych wywodzących się z przemysłu i środowiska akademickiego, należy zaangażować znacznie szerszą grupę osób.

„Chcę zobaczyć filozofa, etyka, artystę, startup branżowy, firmę scalającą, inwestora kapitału wysokiego ryzyka – całą gamę ludzi, którzy mogą wnieść swoją wiedzę, doświadczenie i głos; nie tylko z wąskiej sztucznej inteligencji, ale z całej gamy sektorów” – powiedział.

Choć konieczna jest różnorodność i włączenie na poziomie polityki i badań, Holmes dodał, że „bijącym sercem” jego ustawy jest zaangażowanie publiczneponieważ rodzi zaufanie do technologii i otaczających ją procesów.

Bez zaufania wynikającego ze znaczącego zaangażowania społecznego Holmes powtórzył, że „jest mało prawdopodobne, aby ludzie odnieśli korzyści”, a jednocześnie „jest niezwykle prawdopodobne, że poniosą ciężary narzuconej sztucznej inteligencji”.

Powiedział, że rozprzestrzenianie się sztucznej inteligencji „daje nam szansę na całkowitą zmianę sposobu, w jaki państwo wchodzi w interakcję z jednostkami i obywatelami, aby konsultacje stały się odpowiednio ożywione i ludzkie”.

Podkreślenie idei paneli obywatelskich i przykładu „Zgromadzenia dostosowawcze” Tajwanu – projekt rządowy mający na celu zbudowanie konsensusu wokół sztucznej inteligencji i zapewnienie, że zastosowania tej technologii będą zgodne z interesami ludzi – Holmes powiedział, że coś podobnego można zastosować w Wielkiej Brytanii.

„Rodzaj wyników, rodzaj spostrzeżeń, rodzaj prawdziwej inteligencji, która mogłaby z tego wyniknąć, z pewnością byłby tak głęboki” – powiedział.

Załatanie luk

Kluczowym filarem ustawy Holmesa dotyczącej sztucznej inteligencji jest potrzeba powołania nadrzędnego „organu ds. sztucznej inteligencji”, który pełniłby rolę koordynującą, zapewniając, że wszystkie istniejące organy regulacyjne wywiązują się ze swoich obowiązków wynikających z podejścia rządowego.

„Prawdziwym celem organu ds. sztucznej inteligencji, jak określono w projekcie ustawy, nie jest bycie ogromnym, wszechstronnym regulatorem AI, ani trochę. Byłoby to niezwykle kosztowne, biurokratyczne, powielające i nieoptymalne” – stwierdził. „Jego rolą jest horyzontalne spojrzenie na organy regulacyjne”.

Holmes dodała, że ​​zapewniłoby to niezależną ocenę kompetencji organów regulacyjnych w zakresie sztucznej inteligencji, a także przydatności obecnych ram prawnych, przy jednoczesnym zapewnieniu, że wszystkie działania będą opierać się na kluczowych zasadach.

„Przejrzystość, wiarygodność, włączenie, interoperacyjność, perspektywa międzynarodowa, odpowiedzialność, pewność – organ AI może być absolutnym propagatorem wszystkich tych zasad w każdym aspekcie” – powiedział.

Podkreślanie sukcesu Wielkiej Brytanii piaskownice technologii finansowej (fintech).które od tego czasu zostały powielone w jurysdykcjach na całym świecie, Holmes stwierdził, że organ ds. sztucznej inteligencji mógłby również odegrać rolę w koordynowaniu piaskownic regulacyjnych w celu odpowiedniego testowania różnych zastosowań sztucznej inteligencji.

Lipiec 2023 r analiza luk przeprowadzona przez Instytut Ady Lovelace ustaliło, że „duże obszary” gospodarki Wielkiej Brytanii są albo nieuregulowane, albo uregulowane jedynie częściowo, co oznacza, że ​​nie jest jasne, kto byłby odpowiedzialny za kontrolę wdrażania sztucznej inteligencji w ramach podejścia proponowanego przez rząd. Holmes powiedział, że organ horyzontalny, taki jak proponowany przez niego organ ds. sztucznej inteligencji, mógłby rozwiązać niektóre z tych problemów związanych z brakiem zasięgu i słabym dochodzeniem zadośćuczynienia.

„Rola organu odpowiedzialnego za sztuczną inteligencję polega w dużej mierze na uwydatnianiu rządowi wszystkich tych luk, wszystkich niedociągnięć, aby można było się nimi zająć, zamiast wierzyć, że w jakimkolwiek sensie istniejące organy regulacyjne mogą po prostu zrobić to wszystko w pionie sposób, bez spojrzenia na to wszystko w sposób spójny, konsekwentny i horyzontalny” – stwierdził.

Egzekwowanie istniejących zasad

Część projektu ustawy o sztucznej inteligencji wprowadzonej przez Holmesa koncentruje się na konieczności stosowania tej technologii w celu zapewnienia zgodności z przepisami, które już istnieją, ale które w odniesieniu do sztucznej inteligencji są generalnie pomijane.

„Sztuczna inteligencja to tylko najnowszy przykład argumentu „pograniczego”, który pojawia się w historii w każdym okresie znaczących innowacji” – stwierdził.

„To argument, który sięga początków wielu narodów: «Nie ogradzajcie mnie; zasady mnie nie dotyczą; musisz pozwolić nam zająć się tym; robimy coś tak innowacyjnego, tak odmiennego od wszystkich innych, że zasady nie mają tu zastosowania”. Argument ten nigdy w historii ludzkości nie miał żadnej wagi, wartości ani podstaw etycznych”.

W szczególności Holmes podkreślił znaczenie istniejących przepisów dotyczących ochrony danych i własności intelektualnej, zauważając na przykład, że nie chodzi tu o całkowite zapobieganie wykorzystanie utworów chronionych prawem autorskim w modelach szkoleniowych AIale o ich udostępnianiu w drodze negocjacji z posiadaczami praw.

„Kłótnia, zgodnie z którą sztuczna inteligencja może po prostu czołgać się po pracy ludzi z całkowitym porzuceniem, jak gdyby zasady nie miały zastosowania, jest całkowicie i całkowicie nie do przyjęcia” – stwierdził, dodając, że pilnie potrzebne są przepisy dotyczące sztucznej inteligencji, aby chronić brytyjskich twórców: „Jeśli nie działajcie, jeśli nie uchwalimy przepisów, w wielu przypadkach będzie za późno”.

„Pisarstwo, twórczość artystyczna, muzyka. To są rzeczy, które dostrajają się do naszej ludzkiej duszy – nie można ich po prostu zabrać i wyrwać, bez myśli, bez słów, bez zapłaty i bez szacunku” – powiedział.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Sfałszowany wpis w serwisie eBay zdemaskowany przez najdłużej pracującego pracownika Apple

Sfałszowana aukcja w serwisie eBay przedstawiająca rzekomą przepustkę dla pracownika nr 10 wraz z ręcznie rysowaną mapą Jabłka pierwszym kampusie, wydawał się powierzchownie...

Toshiba pokazuje dyski twarde o pojemności 32 TB z dyskami wspomaganymi termicznie i gontowymi

Przez Opublikowany: 20 maja 2024 12:22 Toshiba pokazała 32 TB (terabajt) i 31 TB dysk twardy (HDD), które wykorzystują zapis magnetyczny wspomagany ciepłem i...

Kanada i Wielka Brytania w kolejce do pierwszego międzynarodowego wdrożenia Vision Pro

Czekamy na pierwszy etap Wizja Pro wkrótce potem nastąpi międzynarodowe wdrożenie WWDCi pojawiły się wskazówki dotyczące niektórych konkretnych krajów. Obecnie mówi się,...
Advertisment