Nie można polegać na firmach zajmujących się sztuczną inteligencją (AI), jeśli chodzi o dobrowolne udostępnianie informacji o możliwościach systemów i ryzyku, twierdzą obecni i byli pracownicy w otwartym apelu o większą ochronę sygnalistów.
Podczas drugiego światowego szczytu AI w Seulu 16 firm podpisało umowę Zobowiązania w zakresie bezpieczeństwa w zakresie sztucznej inteligencji na granicyktóry stanowi dobrowolny zestaw środków umożliwiających bezpieczne rozwijanie technologii, na przykład poprzez ocenę ryzyka stwarzanego przez ich modele na każdym etapie całego cyklu życia sztucznej inteligencji, ustalanie niedopuszczalnych progów ryzyka w celu poradzenia sobie z najpoważniejszymi zagrożeniami, oraz zapewnienie publicznej przejrzystości całego procesu oceny ryzyka.
W ramach jednego z kluczowych dobrowolnych zobowiązań firmy oświadczyły, że nie będą również opracowywać ani wdrażać systemów sztucznej inteligencji, jeśli nie będzie można wystarczająco ograniczyć zagrożeń.
Jednak niecałe dwa tygodnie po szczycie grupa obecnych i byłych pracowników OpenAI, Anthropic i DeepMind – z których dwóch pierwszych podpisało zobowiązania w zakresie bezpieczeństwa w Seulu – stwierdziła, że obecne dobrowolne ustalenia nie wystarczą, aby zapewnić skuteczny nadzór firm rozwijających sztuczną inteligencję.
Dodali, że choć same firmy, wraz z rządami i innymi ekspertami w dziedzinie sztucznej inteligencji, przyznały, że oczywiste ryzyko stwarzane przez tę technologię „obejmuje m.in. dalsze utrwalanie istniejących nierówności, manipulację i dezinformację, aż po utratę kontroli nad autonomiczną sztuczną inteligencją systemów potencjalnie prowadzących do wyginięcia ludzkości” – firmy mają „silne zachęty finansowe”, aby unikać skutecznego nadzoru.
„Nie wierzymy, że specjalnie zaprojektowane struktury ładu korporacyjnego wystarczą, aby to zmienić” – napisali w liście otwartym z 4 czerwca 2024 r.
„Firmy zajmujące się sztuczną inteligencją posiadają istotne, niepubliczne informacje na temat możliwości i ograniczeń swoich systemów, adekwatności stosowanych przez nie środków ochronnych oraz poziomów ryzyka różnych rodzajów szkód. Jednakże obecnie mają one jedynie niewielkie obowiązki w zakresie udostępniania części tych informacji rządom, a żadnego ze społeczeństwem obywatelskim. Nie sądzimy, aby można było na nich polegać, że podzielą się nimi dobrowolnie”.
Umowy o poufności
W piśmie – podpisanym zarówno przez anonimowych, jak i z nazwiska pracowników – dodano, że „szerokie umowy o zachowaniu poufności” uniemożliwiają im wyrażanie obaw „z wyjątkiem samych firm, które mogą nie zająć się tymi kwestiami”.
„Zwykła ochrona sygnalistów jest niewystarczająca, ponieważ koncentruje się na nielegalnej działalności, podczas gdy wiele zagrożeń, które nas niepokoją, nie zostało jeszcze uregulowanych” – dodali. „Niektórzy z nas zasadnie obawiają się różnych form odwetu, biorąc pod uwagę historię takich przypadków w branży. Nie jesteśmy pierwszymi, którzy spotykają się z tymi kwestiami lub o nich mówią”.
List kończy się wezwaniem przedsiębiorstw do większej przejrzystości i odpowiedzialności, w tym do zakazu zawierania i egzekwowania jakichkolwiek porozumień zabraniających krytyki obaw związanych z ryzykiem; ułatwiać pracownikom anonimowy proces zgłaszania wątpliwości; oraz wspieraj wewnętrzną kulturę otwartej krytyki, która pozwala zarówno obecnym, jak i byłym pracownikom zgłaszać wątpliwości szerokiemu gronu grup.
Wzywa także firmy, aby nie podejmowały działań odwetowych wobec obecnych i byłych pracowników, którzy publicznie udostępniają poufne informacje związane z ryzykiem, gdy inne procesy zawiodły: „Akceptujemy, że wszelkie wysiłki mające na celu zgłaszanie obaw związanych z ryzykiem powinny unikać niepotrzebnego ujawniania informacji poufnych. Dlatego też, jeśli istnieje odpowiedni proces anonimowego zgłaszania wątpliwości zarządowi spółki, organom regulacyjnym i odpowiedniej niezależnej organizacji posiadającej odpowiednią wiedzę specjalistyczną, zgadzamy się, że wątpliwości należy zgłaszać początkowo w ramach takiego procesu.
„Jednak dopóki taki proces nie będzie istniał, obecni i byli pracownicy powinni zachować swobodę zgłaszania swoich obaw opinii publicznej”.
List podpisali także wybitni eksperci ds. sztucznej inteligencji Stuart Russell, Geoffrey Hinton i Yoshua Bengio; ten ostatni został wybrany przez 27 krajów podczas pierwszego światowego szczytu dotyczącego sztucznej inteligencji na przywódcę pierwszego w historii granicznego projektu sztucznej inteligencji Stan nauki raport oceniający istniejące badania dotyczące zagrożeń i możliwości tej technologii.
Komentowanie w sprawie zobowiązań w zakresie bezpieczeństwa podjętych wówczas przez 16 firm zajmujących się sztuczną inteligencją Bengio powiedział, że chociaż cieszy się, że zarejestrowało się tak wiele wiodących firm zajmujących się sztuczną inteligencją – i ze szczególnym zadowoleniem przyjmuje ich zobowiązanie do wstrzymywania modeli, w przypadku których stwarzają one skrajne ryzyko – będą musiały zostać wsparte bardziej formalnymi środkami regulacyjnymi. „Temu dobrowolnemu zobowiązaniu będą oczywiście musiały towarzyszyć inne środki regulacyjne, niemniej jednak stanowi to ważny krok naprzód w ustanawianiu międzynarodowego systemu zarządzania w celu promowania bezpieczeństwa sztucznej inteligencji” – stwierdził.
„Computer Weekly” skontaktował się z Departamentem Nauki, Innowacji i Technologii w sprawie uwag Bengio na temat konieczności wprowadzenia obowiązkowych środków, ale nie otrzymał żadnej oficjalnej odpowiedzi.
Chociaż rząd Wielkiej Brytanii to zrobił wielokrotnie powtarzała, że nie będzie stanowić prawa dotyczącego sztucznej inteligencji z obawy przed stłumieniem innowacji przedstawiła swoje „wstępne przemyślenia” dotyczące wprowadzenia wiążących wymogów dla wybranych firm opracowujących najpotężniejsze systemy sztucznej inteligencji w lutym 2024 r., zauważając, że wszelkie dobrowolne środki na rzecz przedsiębiorstw zajmujących się sztuczną inteligencją byłyby prawdopodobnie „nieproporcjonalne do ryzyka”, jakie stwarzają najbardziej zaawansowane możliwości.
W odpowiedzi na list rzecznik OpenAI powiedział: „Jesteśmy dumni z naszych osiągnięć w dostarczaniu najbardziej wydajnych i najbezpieczniejszych systemów sztucznej inteligencji oraz wierzymy w nasze naukowe podejście do rozwiązywania problemów. Zgadzamy się, że rygorystyczna debata ma kluczowe znaczenie, biorąc pod uwagę znaczenie tej technologii, dlatego będziemy nadal współpracować z rządami, społeczeństwem obywatelskim i innymi społecznościami na całym świecie.
„Dlatego też udostępniamy pracownikom możliwości wyrażania swoich obaw, w tym anonimową infolinię ds. uczciwości oraz Komisję ds. Bezpieczeństwa i Ochrony, na której czele stoją członkowie naszego zarządu i liderzy ds. bezpieczeństwa w firmie”.
Rzecznik dodał, że tworzenie bezpiecznych i niezawodnych systemów ma kluczowe znaczenie dla modelu biznesowego OpenAI i że 92% osób z listy Fortune 500 korzysta z jej narzędzi – coś, co ich zdaniem nie miałoby miejsca, gdyby modele nie były bezpieczne lub zdolne.
Dodał także, że OpenAI jako jedna z pierwszych w branży wezwała do wprowadzenia rządowych regulacji dotyczących sztucznej inteligencji oraz że zarówno obecni, jak i byli pracownicy mają wiele możliwości podzielenia się swoimi poglądami.
Stwierdzili, że obejmuje to możliwość wyrażenia swoich przemyśleń w godzinach pracy kierownictwa, anonimową infolinię ds. uczciwości, sesje pytań i odpowiedzi z zarządem oraz stałą komunikację z menedżerami.
Stwierdzili jednak również, że ważna jest ochrona poufności tworzonej technologii, w tym przed nieuprawnionym ujawnieniem, które mogłoby przynieść korzyści złośliwym podmiotom. W szczególności wymienili kraje, które chcą wyprzedzić wiodącą pozycję Stanów Zjednoczonych w technologii sztucznej inteligencji.
Computer Weekly również skontaktował się z DeepMind i Anthropic, ale nie otrzymał żadnej odpowiedzi.