Regulacja AI potrzebna do uniknięcia błędów mediów społecznościowych


Eksperci przedstawiający dowody dla Komisji ds. Komunikacji i Cyfrowej Izby Lordów ostrzegali, że bez wystarczających regulacji sztuczna inteligencja (AI) może podążać ścieżką w dużej mierze nieuregulowanych platform mediów społecznościowych.

Wśród kwestii poruszanych podczas rozprawy dowodowej był charakter przepisy międzynarodowe i czy działa samoregulacja.

Tabitha Goldstaub, współzałożycielka CogX i przewodniczący Rady AI, powiedział: „Firmy mogą wdrażać systemy AI na prawie nieuregulowanym rynku. Musimy zapewnić rządowi możliwość kontrolowania systemów”.

OpenAI, twórca Algorytm GPT-3, został również poproszony o złożenie zeznań. Mira Murati, starszy wiceprezes ds. badań, produktów i partnerstw w OpenAI, przedstawiła komitetowi nie tylko tempo rozwoju sztucznej inteligencji i łatwość dostępu za pośrednictwem interfejsów programowania aplikacji (API), ale także powód, dla którego organy regulacyjne muszą działaj szybko.

„Przewidujemy, że sztuczna inteligencja będzie miała taki sam wpływ jak media społecznościowe w nadchodzącej dekadzie, przy czym niewiele uwagi poświęcimy temu, w jaki sposób wykorzystywane są systemy” – powiedziała. „Nadszedł czas, aby zrozumieć zagrożenia i możliwości, zanim staną się powszechnie dostępne”.

Dla Goldstaub wśród wyzwań i możliwości stojących przed sztuczną inteligencją jest równowaga między badaniami akademickimi w domenie publicznej, gdzie algorytmy mogą być analizowane, a poziomem prac badawczo-rozwojowych prowadzonych przez największe firmy zajmujące się oprogramowaniem. Według Goldstauba, prace badawczo-rozwojowe toczą się w zawrotnym tempie. Wśród najważniejszych artykułów prezentowanych na konferencjach AI połowa pochodziła z korporacyjnych ośrodków badawczych, takich jak Google, Facebook i Microsoft, a połowa ze środowisk akademickich.

Reklama

Ostrzegła komisję, że taki poziom działalności komercyjnej prowadzi do odejścia od otwartego charakteru badań, co szkodzi zdolności naukowców do odtwarzania algorytmów AI.

Murati omówił szybkie tempo rozwoju sztucznej inteligencji, które prowadzi takie organizacje jak OpenAI do samoregulacji. „Możemy połączyć dużą sieć neuronową, duże dane i duże komputery, co zapewni nam niezawodny i zdumiewający postęp AI” – powiedziała. „Jeśli będziemy kontynuować tę trajektorię, możemy iść dalej i szybko będziemy mieć systemy zdolne do pisania programów”.

Taka trajektoria ostatecznie doprowadziłaby do rozwoju sztucznej ogólnej inteligencji (AGI), w której algorytmy mogą potencjalnie przewyższyć ludzką inteligencję, powiedział Murati, dodając: „Naszą misją jest zapewnienie, że gdy dotrzemy do AGI, opracujemy ją i wdrożymy w sposób z których korzysta cała ludzkość”.

Opisując podejście, które OpenAI przyjął w zakresie samoregulacji, Murati powiedział komisji, że chociaż GPT-3 został pierwotnie wydany w maju 2020 roku, a API udostępniono w czerwcu 2020 roku, firma wprowadziła wiele ograniczeń. „Mieliśmy wiele ograniczeń, ponieważ nie byliśmy pewni, czy można go bezpiecznie i niezawodnie używać” — powiedziała.

Murati powiedział, że OpenAI dopiero niedawno w pełni udostępnił interfejs API po tym, jak poczynił wystarczające postępy w zakresie protokołów bezpieczeństwa i konfiguracji systemów do wykrywania złych zachowań. „Mamy dedykowany zespół ds. bezpieczeństwa, który zapewnia, że ​​wdrażamy technologię w sposób odpowiedzialny, dostosowujemy się do ludzkich wartości i redukujemy szkodliwe, toksyczne treści” – powiedziała. „Wierzymy, że regulacje są niezbędne do budowania i utrzymania zaufania publicznego do technologii oraz zapewnienia jej wdrażania w bezpieczny, uczciwy i przejrzysty sposób”.

Wśród obszarów problemowych, z którymi boryka się rząd podczas opracowywania ram regulacyjnych dla sztucznej inteligencji, jest fakt, że technologia przekracza granice międzynarodowe. Chris Philp, minister technologii i gospodarki cyfrowej w Departamencie Cyfryzacji, Kultury, Mediów i Sportu, powiedział, że tempo rozwoju sztucznej inteligencji jest wyzwaniem dla regulatorów.

„Technologie mają zasięg międzynarodowy, co oznacza, że ​​nie możemy oddzielić, które elementy podlegają jurysdykcji Wielkiej Brytanii” – powiedział. Jednocześnie rząd nie chciał wprowadzać ram regulacyjnych, które tłumiłyby innowacje lub miały stałą architekturę, która byłaby natychmiast przestarzała, powiedział Philp.

Poza potrzebą wprowadzenia regulacji, które nadążają za tempem zmian bez utrudniania innowacji, Goldstaub zasugerował, aby komisja zbadała również, jak społeczeństwo może być lepiej wykształceni w zakresie podejmowania decyzji dotyczących sztucznej inteligencji. „Aby ludzie mogli ufać, muszą zrozumieć znaczenie sztucznej inteligencji” – powiedziała.

Odwołując się do analogii z przemysłem motoryzacyjnym i lotniczym, gdzie istnieją ustalone przepisy bezpieczeństwa, które ludzie mogą docenić na wysokim poziomie bez konieczności rozumienia wewnętrznego działania, powiedziała: „Jednym z brakujących elementów jako konsumentów technologii AI jest to, że każde dziecko opuszcza szkołę z podstawowymi umiejętnościami w zakresie danych i AI.”

Murati wezwał komisję do przyjrzenia się, w jaki sposób rząd może ściśle współpracować z przemysłem w celu zidentyfikowania pojawiających się problemów. Zasugerowała, że ​​organy regulacyjne mogłyby wprowadzić przepisy dotyczące przejrzystości i wyjaśnialności systemów sztucznej inteligencji, aby zrozumieć ryzyko i zapewnić stosowanie środków łagodzących. Powiedziała, że ​​​​regulatorzy mogą również wprowadzić kontrole, które oceniają niezawodność algorytmów sztucznej inteligencji, a firmy będą odpowiedzialne za zawodne algorytmy sztucznej inteligencji.

W przypadku Murati standardy branżowe dotyczące wyjaśnialności, solidności i niezawodności w połączeniu z zestawem zasad, według których firmy mogą być oceniane, pomogłyby zapewnić bezpieczny rozwój i wdrażanie systemów sztucznej inteligencji. „Normy zachęcające znacznie pomogłyby w zapewnieniu bezpiecznego użytkowania” – dodała.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

DeepCool wprowadza na rynek zasilacze z serii PQ-M

DeepCool, globalna marka i producent sprzętu komputerowego i urządzeń peryferyjnych dla entuzjastów, ogłosiła dziś wprowadzenie na rynek nowej generacji zasilaczy spełniających wysokie standardy...
Advertisment

Chcesz być na bieżąco z najnowszymi wiadomościami?

Bardzo chcielibyśmy usłyszeć od Ciebie! Podaj swoje dane, a pozostaniemy w kontakcie. To takie proste!