Sztuczna inteligencja rozwija się szybko. Teraz jest w stanie naśladować ludzi wystarczająco przekonująco do napędzania masowych oszustw telefonicznych lub rozkręcić niezamierzone deepfake’owe zdjęcia celebrytów do wykorzystania w kampaniach nękania. Pilna potrzeba uregulowania tej technologii nigdy nie była tak krytyczna — dlatego Kalifornia, siedziba wielu największych graczy AI, próbuje to zrobić za pomocą ustawy znanej jako SB 1047.
SB 1047, który został przyjęty przez Zgromadzenie Stanowe Kalifornii i Senat pod koniec sierpnia, jest teraz na biurku gubernatora Kalifornii Gavina Newsoma — który zadecyduje o losie ustawy. Podczas gdy UE i niektóre inne rządy od lat opracowują regulacje dotyczące AI, SB 1047 byłby jak dotąd najsurowszymi ramami w USA. Krytycy przedstawili niemal apokaliptyczny obraz jego wpływu, nazywając go zagrożeniem dla startupów, programistów open source i naukowców. Zwolennicy nazywają go niezbędną barierą ochronną dla potencjalnie niebezpiecznej technologii — i korektą lat niedoregulowania. Tak czy inaczej, walka w Kalifornii może wywrócić AI, jaką znamy, a obie strony wychodzą z mocą.
Potężni gracze w dziedzinie sztucznej inteligencji walczą z Kalifornią — i ze sobą nawzajem
Oryginalna wersja SB 1047 była śmiała i ambitna. Wprowadzona przez senatora stanowego Scotta Wienera jako California Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, miała na celu ścisłe uregulowanie zaawansowanych modeli AI o wystarczającej mocy obliczeniowej, zbliżonej do wielkości dzisiejszych największych systemów AI (czyli 10^26 FLOPS). Ustawa wymagała od twórców tych modeli granicznych przeprowadzenia dokładnych testów bezpieczeństwa, w tym ocen stron trzecich, i poświadczenia, że ich modele nie stanowią znaczącego zagrożenia dla ludzkości. Twórcy musieli również wdrożyć „wyłącznik awaryjny”, aby wyłączyć nieuczciwe modele i zgłaszać incydenty bezpieczeństwa nowo utworzonej agencji regulacyjnej. Mogliby stanąć w obliczu potencjalnych pozwów od prokuratora generalnego za katastrofalne awarie bezpieczeństwa. Jeśli skłamaliby na temat bezpieczeństwa, twórcy mogliby nawet stanąć przed zarzutami krzywoprzysięstwa, które obejmują groźbę więzienia (jednak to w praktyce niezwykle rzadkie).
Kalifornijscy ustawodawcy są w wyjątkowo silnej pozycji, aby regulować AI. W najludniejszym stanie kraju działa wiele wiodących firm AI, w tym OpenAI, które publicznie sprzeciwiło się ustawie, i Anthropic, które wahało się na jego wsparciu przed poprawkami. Ustawa SB 1047 ma również na celu uregulowanie modeli, które chcą działać na rynku kalifornijskim, co zapewni jej daleko idący wpływ wykraczający daleko poza granice stanu.
Nic dziwnego, że zbuntowały się znaczące części branży technologicznej. Na wydarzeniu Y Combinator dotyczącym regulacji AI, w którym uczestniczyłem pod koniec lipca, rozmawiałem z Andrew Ng, współzałożycielem Coursera i założycielem Google Brain, który mówił o swoich planach protestu przeciwko SB 1047 na ulicach San Francisco. Ng niespodziewanie pojawił się później na scenie, krytykując ustawę za potencjalne szkody, jakie może wyrządzić naukowcom i programistom open source, podczas gdy Wiener przyglądał się temu ze swoim zespołem.
„Kiedy ktoś trenuje duży model językowy… to jest technologia. Kiedy ktoś umieszcza je w urządzeniu medycznym lub w kanale mediów społecznościowych lub w chatbocie lub używa ich do generowania politycznych deepfake’ów lub pornografii deepfake bez zgody, to są aplikacje” — powiedział Ng na scenie. „A ryzyko AI nie jest funkcją. Nie zależy od technologii — zależy od aplikacji”.
Krytycy lubię Ng martwić się, że SB 1047 może powolny postępczęsto wywołując obawy, że mogłoby to utrudnić prowadzenie USA w walce z wrogimi państwami, takimi jak Chiny i Rosja. Przedstawiciele Zoe Lofgren I Nancy Pelosi I Izba Handlowa Kalifornii obawiają się, że projekt ustawy jest zbyt skupiony na fikcyjnych wersjach katastroficznej sztucznej inteligencji, a pionierka sztucznej inteligencji Fei-Fei Li ostrzegała w Fortuna kolumna że SB 1047 „zaszkodzi naszemu rozwijającemu się ekosystemowi AI”. To również punkt nacisku dla Khana, który jest zaniepokojony regulacjami federalnymi tłumiącymi innowacyjność w społecznościach open-source AI.
Na scenie wydarzenia YC Khan podkreśliła, że oprogramowanie typu open source jest sprawdzonym motorem innowacji, przyciągającym setki miliardów kapitału wysokiego ryzyka, aby napędzać startupy. „Zastanawiamy się, co powinno oznaczać oprogramowanie typu open source w kontekście AI, zarówno dla was wszystkich jako innowatorów, jak i dla nas jako organów ścigania” — powiedziała Khan. „Definicja oprogramowania typu open source w kontekście oprogramowania nie przekłada się dokładnie na kontekst AI”. Zarówno innowatorzy, jak i regulatorzy, powiedziała, wciąż zastanawiają się, jak zdefiniować i chronić oprogramowanie typu open source AI w kontekście regulacji.
Osłabiony SB 1047 jest lepszy niż nic
Efektem krytyki był znacznie łagodniejszy drugi projekt SB 1047, który przeszedł przez komisję 15 sierpnia. W nowym SB 1047 proponowana agencja regulacyjna została usunięta, a prokurator generalny nie może już pozywać deweloperów za poważne incydenty związane z bezpieczeństwem. Zamiast składać certyfikaty bezpieczeństwa pod groźbą krzywoprzysięstwa, deweloperzy muszą teraz jedynie składać publiczne „oświadczenia” dotyczące swoich praktyk bezpieczeństwa, bez ponoszenia odpowiedzialności karnej. Ponadto podmioty wydające mniej niż 10 milionów dolarów na dopracowanie modelu nie są uważane za deweloperów na mocy ustawy, co zapewnia ochronę małym startupom i deweloperom oprogramowania typu open source.
Jednak nie oznacza to, że nie warto uchwalić ustawy, według zwolenników. Nawet w osłabionej formie, jeśli SB 1047 „sprawi, że choć jedna firma AI przemyśli swoje działania lub zacznie poważniej traktować dopasowanie modeli AI do ludzkich wartości, będzie to dobre” napisał Gary Marcus, emerytowany profesor psychologii i neuronauki na NYU. Nadal będzie oferować krytyczne zabezpieczenia bezpieczeństwa i tarcze sygnalistów, co niektórzy mogą uważać za lepsze niż nic.
Dyrektor generalny Anthropic Dario Amodei powiedział, że rachunek był „znacznie ulepszone, do tego stopnia, że uważamy, że korzyści prawdopodobnie przewyższają koszty” po poprawkach. W oświadczenie popierające ustawę SB 1047 zgłoszone przez Osiowy120 obecnych i byłych pracowników firm OpenAI, Anthropic, Google DeepMind i Meta stwierdziło, że „wierzą, iż najpotężniejsze modele sztucznej inteligencji mogą wkrótce stwarzać poważne zagrożenia, takie jak rozszerzony dostęp do broni biologicznej i cyberataki na krytyczną infrastrukturę”.
„Firmy działające na polu AI powinny sprawdzić, czy najpotężniejsze modele AI mogą spowodować poważne szkody, a także wdrożyć rozsądne zabezpieczenia przed takimi ryzykami” – czytamy w oświadczeniu.
Tymczasem wielu krytyków nie zmieniło swojego stanowiska. „Edycje są tylko przykrywką” – powiedział Martin Casado, wspólnik generalny Andreessen Horowitz opublikowano„Nie odnoszą się do prawdziwych problemów ani krytyki projektu ustawy”.
Jest też dyrektor ds. strategii w OpenAI, Jason Kwon, który w liście do Newsome’a i Wienera stwierdził, że „SB 1047 zagrozi temu wzrostowi, spowolni tempo innowacji i sprawi, że światowej klasy inżynierowie i przedsiębiorcy z Kalifornii opuszczą stan w poszukiwaniu większych możliwości gdzie indziej”.
„Biorąc pod uwagę te zagrożenia, musimy chronić amerykańską przewagę w dziedzinie sztucznej inteligencji za pomocą zestawu polityk federalnych — a nie stanowych — które zapewnią przejrzystość i pewność laboratoriom i twórcom sztucznej inteligencji, a jednocześnie zachowają bezpieczeństwo publiczne” — napisał Kwon.
Polityczna lina Newsome’a
Choć ta mocno zmieniona wersja SB 1047 trafiła na biurko Newsome’a, zauważalnie milczy on na ten temat. Nie jest żadną nowiną, że regulacja technologii zawsze wiązała się z pewnym stopniem politycznych manewrów i że wiele sygnalizuje powściągliwe podejście Newsome’a do tak kontrowersyjnych regulacji. Newsom móc nie chcemy wywoływać zamieszania wśród technologów tuż przed wyborami prezydenckimi.
Wielu wpływowych dyrektorów technologicznych jest również głównymi darczyńcami kampanii politycznych, a w Kalifornii, gdzie mieszczą się niektóre z największych firm technologicznych na świecie, dyrektorzy ci są głęboko związani z polityką stanu. Firma venture capital Andreessen Horowitz zaciągnął nawet Jasona Kinneyabliski przyjaciel gubernatora Newsome’a i działacz Demokratów, lobbował przeciwko ustawie. Dla polityka naciskanie na regulację technologii może oznaczać utratę milionów dolarów w postaci wpłat na kampanię. Dla kogoś takiego jak Newsom, który ma jasne ambicje prezydenckie, jest to poziom poparcia, którego nie może sobie pozwolić na zmarnowanie.
Co więcej, rozłam między Doliną Krzemową a Demokratami pogłębił się, zwłaszcza po Współzałożyciele Andreessen Horowitz wyrazili poparcie dla Donalda Trumpa. Silny sprzeciw firmy wobec SB 1047 oznacza, że jeśli Newsom podpisze ustawę, podział może się pogłębić, utrudniając Demokratom odzyskanie poparcia Doliny Krzemowej.
Więc wszystko sprowadza się do Newsome’a, który jest pod silną presją ze strony najpotężniejszych firm technologicznych na świecie i innych polityków, takich jak Pelosi. Podczas gdy ustawodawcy od dziesięcioleci pracują nad osiągnięciem delikatnej równowagi między regulacjami a innowacjami, AI jest niejasne i niespotykane, a wiele starych zasad wydaje się nie mieć zastosowania. Na razie Newsom ma czas do września, aby podjąć decyzję, która może wywrócić do góry nogami przemysł AI, jaki znamy.