To było gorące lato dla globalnych regulacji AI. W zaskakującym ruchu, kalifornijscy ustawodawcy zagłosowali za ustawami regulującymi największe modele AI. A 1 sierpnia, po blisko sześciu latach obrad i negocjacji, weszła w życie ustawa UE o AI.
Stanowisko Wielkiej Brytanii w sprawie regulacji AI jest jednak mniej jasne. Przejście na wyrozumiałość regulacyjną jest możliwą strategią dla Wielkiej Brytanii. Ale im więcej dużych graczy technologicznych i przedsiębiorstw będzie skłaniać się ku globalnym regulacjom, tym mniej kontroli i swobody manewru będzie miała Wielka Brytania, aby regulować na swój własny sposób.
Początkowo Stany Zjednoczone również działały ostrożnie Regulacja sztucznej inteligencjiW październiku 2022 r. Biały Dom opublikował Projekt Karty Praw Sztucznej Inteligencjiprzedstawiając rozsądne, godne zaufania i dobrowolne zasady sztucznej inteligencji. Biden poszedł o krok dalej w październiku 2023 r., podpisując rozporządzenie wykonawcze w sprawie godnej zaufania sztucznej inteligencjinadal zorientowane na politykę, ale sprytnie ukierunkowane na agencje USA. Mają tendencję do słuchania rekomendacji proponowanych przez ich naczelnego dowódcę o wiele lepiej niż powiedzmy przeciętny biznes.
Biorąc pod uwagę wybory w USA, być może słusznie było nie oczekiwać zbyt dużego postępu; Trump na przykład obiecał anulować rozporządzenie wykonawcze Bidena, jeśli zostanie wybrany. Ale wtedy regulatorzy wkroczyli na próg wielkich technologii w stanie Kalifornia. To, co proponują prawodawcy stanu, wykracza poza rozporządzenie wykonawcze Bidena. Nie mówią o polityce i miękkim prawie, ale o twardych regulacjach.
Jego zakres jest mierzony i ograniczony: modele AI pionierskie, których wyszkolenie kosztuje 100 mln USD (lub przekraczają pewien wysoki próg mocy obliczeniowej), będą podlegać dodatkowym wymogom testowania, dokumentowania, zarządzania, audytu i usuwania. Obejmą one modele od graczy z Doliny Krzemowej, takich jak OpenAI i Google. Jeśli zostaną przyjęte, Prawo CA AI prawdopodobnie natychmiast wpłynie na rynek brytyjski, ponieważ te modele i usługi są używane globalnie. Nie żeby Wielka Brytania miała coś do powiedzenia w kwestii tego, jakie dokładnie są te zasady.
Ustawa UE o sztucznej inteligencji
Ten Ustawa UE o sztucznej inteligencji ma znacznie szerszy zakres. Obejmuje modele fundamentów ogólnego przeznaczenia o określonej wielkości, ale także systemy AI zbudowane z dowolnego rodzaju AI, od prostej, tradycyjnej AI do najnowszych i najlepszych technologii.
Ustawa koncentruje się na celu systemu AI i powiązanym z nim ryzyku. Mały zestaw zastosowań jest zabroniony. Większy zakres zastosowań jest klasyfikowany jako wysokiego ryzyka, więc dozwolony, ale z dodatkowymi wymaganiami. Duże modele ogólnego przeznaczenia są oceniane jako o ograniczonym ryzyku, a zdecydowana większość zastosowań jest klasyfikowana jako minimalne lub bez ryzyka z jedynie dobrowolnym kodeksem postępowania.
Ten wpływ na przedsiębiorstwa w Wielkiej Brytanii? Jeśli którykolwiek z nich chce robić interesy z europejskimi konsumentami, będzie musiał się dostosować, a jeśli w pewnym momencie wdrożone zostaną przepisy brytyjskie, należy spodziewać się, że banki, firmy telekomunikacyjne, ubezpieczyciele i inni będą lobbować za ograniczeniem wszelkich różnic do unijnej ustawy o sztucznej inteligencji do minimum. A Wielka Brytania powinna uważnie śledzić, które unijne polityki dotyczące sztucznej inteligencji działają dobrze, a które nie, podczas gdy ustawa jest wdrażana, aby informować o własnych działaniach regulacyjnych.
Wielka Brytania potrzebuje proaktywnego podejścia
Co Wielka Brytania zrobiła w międzyczasie w sprawie regulacji AI? Poza abstrakcyjnym stwierdzeniem w Przemówienie króla na „szukanie to ustanowić odpowiednie przepisy prawne, które nałożą wymagania na osoby pracujące nad rozwojem najpotężniejszych modeli sztucznej inteligencji” i wyciągnięcie 1,3 mld funtów na inwestycje w AI i superkomputery, nic wielkiego. Ale w ten sposób nie unikniesz globalnej presji regulacyjnej.
W swej istocie etyka i regulacja AI nie powinny być globalnym wyścigiem szczurów ani konkurencją. W interesie wszystkich leży stymulowanie dobrych, godnych zaufania zastosowań AI i zapobieganie złym zastosowaniom AI. I zrozumiałe jest, że należy również wziąć pod uwagę narodowe preferencje dotyczące szans w porównaniu z ryzykiem i regulacjami.
Pozytywnym krokiem naprzód byłoby bardziej proaktywne podejście ze strony brytyjskich prawodawców. Mocniejsze przekonanie, że prawo brytyjskie będzie nadchodzące, i dostosowanie go do prawa USA i UE, gdzie jest to pożądane, oraz przyjęcie innego podejścia, gdzie jest to potrzebne, będzie wielkim krokiem naprzód. Pozwoli to również organizacjom być lepiej przygotowanymi na to, co nadchodzi w regulacjach dotyczących AI, i to nie tylko z perspektywy europejskiej lub amerykańskiej.