Grupa ponad 150 rodziców wysłała w piątek list do gubernator Nowego Jorku Kathy Hochul, wzywając ją do podpisania ustawy o odpowiedzialnej sztucznej inteligencji i edukacji (RAISE). to by wymagało twórcom dużych modeli sztucznej inteligencji — takich jak Meta, OpenAI, Deepseek i Google — w celu tworzenia planów bezpieczeństwa i przestrzegania zasad przejrzystości dotyczących zgłaszania incydentów związanych z bezpieczeństwem.
Ustawa została przyjęta w czerwcu zarówno przez Senat stanu Nowy Jork, jak i Zgromadzenie. Ale w tym tygodniu, Hochul podobno zaproponował niemal całkowite przepisanie ustawy RAISE Act, tak aby stała się ona bardziej korzystna dla firm technologicznych, podobnie jak niektóre zmiany wprowadzone w kalifornijskiej SB 53 po tym, jak duże firmy zajmujące się sztuczną inteligencją zajęły się tą sprawą.
Nic dziwnego, że wiele firm zajmujących się sztuczną inteligencją jest zdecydowanie przeciwnych prawodawstwu. Sojusz AI, który się liczy
Meta, IBM, Intel, Oracle, Snowflake, Uber, AMD, Databricks i Hugging Face wśród swoich członków wysłały wiadomość list w czerwcu nowojorskim prawodawcom opisującym swoje „głębokie zaniepokojenie” ustawą RAISE Act, nazywając ją „niewykonalną”. Oraz Leading the Future, pro-AI super PAC wspierany przez Perplexity AI, Andreessen Horowitz (a16z), prezes OpenAI Greg Brockman i współzałożyciel Palantir Joe Lonsdale, był celem Członek Zgromadzenia Stanu Nowy Jork Alex Bores, który był współautorem ustawy RAISE Act, zamieścił najnowsze reklamy.
Połączone dwie organizacje: Akcja ParentsTogether i Projekt Nadzoru Technologicznego Piątkowy list do Hochulaw którym stwierdza się, że niektórzy z sygnatariuszy „stracili dzieci z powodu chatbotów AI i mediów społecznościowych”. Sygnatariusze nazwali ustawę RAISE w jej obecnym brzmieniu „minimalistyczną poręczą”, która powinna stać się prawem.
Podkreślili również, że ustawa w obecnym brzmieniu „nie reguluje wszystkich twórców sztucznej inteligencji – tylko największych
firm, które wydają setki milionów dolarów rocznie”. Będą musieli ujawniać prokuratorowi generalnemu incydenty związane z bezpieczeństwem na dużą skalę i publikować plany bezpieczeństwa. Twórcom zabroniono by również wypuszczania modelu granicznego, „jeśli spowodowałoby to nadmierne ryzyko poważnej szkody”, którą definiuje się jako śmierć lub poważne obrażenia co najmniej 100 osób lub odszkodowanie o wartości 1 miliarda dolarów lub więcej w zakresie praw pieniężnych lub własności wynikających z wytworzenia broni chemicznej, biologicznej, radiologicznej lub nuklearnej; lub model sztucznej inteligencji, który „działa bez znaczącej interwencji człowieka” i „w przypadku popełnienia przez człowieka” podlegałby pewnym przestępstwom.
„Skryty sprzeciw Big Tech wobec tych podstawowych zabezpieczeń wydaje się znajomy, ponieważ my go znamy
widziałem już wcześniej ten wzorzec unikania i uchylania się” – czytamy w liście. „Powszechne szkody wyrządzane młodym ludziom —
w tym na ich zdrowie psychiczne, stabilność emocjonalną i zdolność funkcjonowania w szkole
szeroko udokumentowane, odkąd największe firmy technologiczne zdecydowały się na rozwój algorytmiczny
platform mediów społecznościowych bez przejrzystości, nadzoru i odpowiedzialności.”
