Rząd Wielkiej Brytanii nie widzi potrzeby wprowadzenia szczegółowych przepisów dotyczących sztucznej inteligencji


Skuteczne zarządzanie sztuczną inteligencją (AI) to kwestia zdolności i możliwości regulacyjnych, a nie zapotrzebowania organów regulacyjnych na nowe uprawnienia ustawowe, powiedzieli parlamentarzystom urzędnicy rządowi.

W marcu 2023 r. rząd Wielkiej Brytanii opublikował swoje Oficjalna księga dotycząca sztucznej inteligencjiw którym przedstawiono pięć zasad, które organy regulacyjne powinny rozważyć, aby ułatwić „bezpieczne i innowacyjne wykorzystanie sztucznej inteligencji” w swoich branżach.

Są to bezpieczeństwo i ochrona; przejrzystość i wyjaśnialność; uczciwość; odpowiedzialność i zarządzanie; oraz możliwość kwestionowania i zadośćuczynienia.

Dodała, że ​​w ciągu najbliższych 12 miesięcy organy regulacyjne będą miały za zadanie wydać organizacjom praktyczne wytyczne, a także inne narzędzia i zasoby, takie jak szablony oceny ryzyka, które określą, w jaki sposób należy wdrażać pięć zasad w ich sektorach. Rząd stwierdził, że może temu towarzyszyć wprowadzenie przepisów legislacyjnych, jeśli pozwoli na to czas parlamentu, aby zapewnić spójność między organami regulacyjnymi.

Składanie zeznań w związku z dochodzeniem Komisji ds. Nauki, Innowacji i Technologii – która w październiku 2022 r. wszczęła dochodzenie w sprawie zarządzania sztuczną inteligencją w Wielkiej Brytanii z uprawnieniami do zbadania, w jaki sposób rząd zapewnia wykorzystanie technologii w sposób etyczny i odpowiedzialny – urzędnicy Whitehall przedstawili obecne myślenie o tym, dlaczego rząd nie widzi potrzeby wprowadzenia nowych przepisów skupiających się na sztucznej inteligencji.

Odpowiadając na pytania przewodniczącego Grega Clarka dotyczące braku projektu ustawy o sztucznej inteligencji w rządzie Mowa króla (w którym, jak zauważył, określa program legislacyjny na następną sesję parlamentu do 2025 r.), Emran Mian, dyrektor generalny ds. technologii cyfrowych i telekomunikacji w Departamencie Nauki, Innowacji i Technologii (DSIT), stwierdził, że rząd przyjął stanowisko, że „nie musimy stanowić prawa”, ponieważ robią to organy regulacyjne podejmują już działania mające na celu zaradzenie szkodam związanym z sztuczną inteligencją.

Reklama

„Już jesteśmy świadkami podjęcia działań przez organy regulacyjne i, jeśli wolisz, z należytym uwzględnieniem przepisów [whitepaper’s principles]”, powiedział, dodając, że rząd „nie ma obecnie planów legislacyjnych”, gdy w wyniku konsultacji w sprawie białej księgi, która nie została jeszcze opublikowana, naciskano na możliwość tej zmiany.

Przepisy amerykańskie

Clark zauważył jednak, że nawet Stany Zjednoczone – które „nie są znane z rygorystycznych regulacji” – tak zrobiły poczuł potrzebę rozpoczęcia regulacji do kontrolowania wykorzystania tej technologii oraz że niektórzy brytyjscy organy regulacyjne – w tym Ofcom i Konkurencja i autorytet marketera (CMA) – otrzymały już lub są w trakcie nadawania zaktualizowanych uprawnień, aby mogły regulować w obliczu nowych technologii cyfrowych.

„Uważamy, że naprawdę ważne jest dla nas sprawdzenie, czy ramy prawne, które już mamy – oraz ramy prawne, które wciąż dostosowujemy, [with the Online Safety Act, the Digital Markets Bill and new data protection legislation] – daje nam uprawnienia, a organom regulacyjnym uprawnienia, których potrzebują, aby uporać się z ryzykiem” – powiedział Mian.

„Jeśli zidentyfikujemy przykłady szkód lub potencjalnych szkód, w przypadku których naszym zdaniem organy regulacyjne nie podejmują właściwych kroków lub nie uważamy, że organy regulacyjne nie mają odpowiednich uprawnień, to jest to oczywiście [something we will take into consideration].”

Matt Clifford, wybitny inwestor i przedstawiciel premiera ds. sztucznej inteligencji, dodał, że istnieje realne zapotrzebowanie na nowe umiejętności i ludzi w sektorze publicznym, którzy mogliby zajmować się sztuczną inteligencją, argumentując, że „są to kwestie potencjału i możliwości, a nie ogólnych uprawnień ”.

Rola Instytutu Bezpieczeństwa AI

Mian stwierdził, że jedną z motywacji powołania brytyjskiego Instytutu Bezpieczeństwa AI jest: ogłoszony niedawno przez Sunaka w okresie poprzedzającym szczyt – ma pomóc w rozwijaniu zdolności sektora publicznego do przeprowadzania wysokiej jakości testów i ewaluacji modeli prywatnych twórców sztucznej inteligencji, czym obecnie zajmują się wyłącznie same przedsiębiorstwa.

Powtarzając stwierdzenie Sunaka, że ​​firmy nie powinny być pozostawione same sobie z oceną pracy domowej, dodał, że chociaż „powinny przyczyniać się do rozwoju nauki”, właściwe jest, aby rząd odegrał pewną rolę, ponieważ nie jest związany tymi samymi „ imperatywy handlowe”, które mogą na przykład sprawić, że „spieszą się z wprowadzaniem produktów na rynek”, nie radząc sobie w pełni z zagrożeniami dla bezpieczeństwa związanymi z ich modelami sztucznej inteligencji.

Zauważając, że wiodące pionierskie laboratoria AI już to zrobiły zgodziła się dobrowolnie zapewnić Instytutowi dostęp do leżących u jego podstaw modeli podstawowychClifford dodał, że rząd nie prosi o pełny dostęp, ponieważ nie jest on potrzebny do przewidywanego rodzaju testów.

„Ostatecznie, aby przetestować ryzyko, potrzebujemy dostępu w takiej formie, jaką będzie miało społeczeństwo” – powiedział, dodając później, że każdy nowy system testowania będzie musiał również uwzględniać dysproporcje w mocy między gigantycznymi korporacjami dysponującymi niezbędnymi zasobami do obsługi modeli AI na dużą skalę (zarówno pod względem finansowym, jak i pod względem dostępu do mocy obliczeniowej) oraz mniejszych twórców aplikacji.

„Bezpieczeństwo musi odbywać się na poziomie modelu, a MŚP nie będą budować własnych modeli, to kosztuje setki milionów dolarów” – powiedział. „MŚP musi wiedzieć, że korzystając z modelu OpenAI, modelu Google lub modelu Anthropic, programiści faktycznie zainwestowali… dużo czasu i pieniędzy w zapewnienie bezpieczeństwa.

„Sposobem na bezpieczne przyjęcie sztucznej inteligencji przez twórców aplikacji jest zapewnienie opinii publicznej, że leżące u ich podstaw modele są bezpieczne”.

Twierdząc, że Wielka Brytania „prawdopodobnie znacznie wyprzedza inne kraje” pod względem prac nad bezpieczeństwem sztucznej inteligencji, częściowo dzięki Instytutowi, Mian przytoczył również fakt, że rząd brytyjski utworzył Algorytmiczny standard rejestrowania przezroczystości za pośrednictwem Centrum Etyki i Innowacji w zakresie Danych jako dowód postępów, chociaż Clark odrzucił tę kwestię, wskazując, że od czasu jego opublikowania ponad rok temu organizacje sektora publicznego wydały zaledwie sześć raportów w ramach dobrowolnego standardu.

Mian odpowiedział, że rząd Wielkiej Brytanii zdaje sobie sprawę ze znaczenia przejrzystości i że Instytut może podjąć się podobnych prac.

Komentując rządową grupę zadaniową ds. sztucznej inteligencji o wartości 100 milionów funtów, która miała za zadanie przekonać czołowych badaczy sztucznej inteligencji do przyłączenia się do jednostkiMian stwierdził, że był „bardzo mile zaskoczony jakością ludzi, których udało nam się sprowadzić” ze środowisk akademickich i sektora prywatnego.

Powiedział, że choć istnieją ograniczenia w zakresie tego, co Instytut będzie mógł publicznie powiedzieć na temat swoich ocen, szczególnie w odniesieniu do wrażliwych możliwości sztucznej inteligencji, które mają konsekwencje dla bezpieczeństwa narodowego: „Chcemy robić jak najwięcej jawnie… Uważamy, że istnieje naprawdę dobra równowaga pomiędzy ilością informacji, jakie możemy dostarczyć.”

Mian dodał ponadto, że chociaż żadna dotychczasowa praca Instytutu nie została poddana wzajemnej ocenie, okazała się ona już pomocna dla decydentów w prowadzeniu rozmów na temat bezpieczeństwa sztucznej inteligencji i inicjowaniu międzynarodowej współpracy w tej kwestii.

„Bez wątpienia musimy nadal budować wiedzę wokół tego, jak wygląda dobra ewaluacja” – stwierdził.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

W miarę zbliżania się premiery Apple rozpoczyna planowanie szkoleń Vision Pro dla pracowników sprzedaży detalicznej

Apple intensywnie się do tego przygotowuje Premiera detaliczna Vision Pro– wynika z nowego raportu z Bloomberga. Według doniesień Apple zaczęło planować sesje...

Włącz podwójne dotknięcie dowolnego zegarka Apple Watch: instrukcje

Jedną z głównych nowych funkcji Apple Watch Series 9 i Ultra 2 jest tak zwane „podwójne dotknięcie”, które pozwala użytkownikom kontrolować urządzenie do...

Mauga z Overwatch 2 zmieniła sposób, w jaki Blizzard dodaje nowych bohaterów

Overwatch 2nowy bohater, samoański czołg uzbrojony w dwa miniguny Mauga, oficjalnie zaprezentowany na początku tego tygodnia wraz z ósmym sezonem gry....
Advertisment