Włączające podejście do zarządzania sztuczną inteligencją potrzebne do zaangażowania społeczeństwa


Włączający udział ludzi w publicznym i prywatnym zarządzaniu systemami sztucznej inteligencji (AI) ma kluczowe znaczenie, aby technologia działała z korzyścią dla wszystkich, ale obecnie nie ma możliwości znaczącego zaangażowania społeczeństwa.

Podczas czwartego dorocznego wydarzenia AIUK organizowanego przez Instytut Alana Turinga (ATI) delegaci przemawiając przez cały dzień podkreślali znaczenie „strukturalnego udziału” ludzi w publicznych projektach sztucznej inteligencji, od pomysłu po realizację i końcową dostawę.

Jednak według głównej doradczyni naukowej rządu, Angeli McClean, społeczeństwo nie ma skutecznych kanałów, które umożliwiłyby mu zabranie głosu w kwestiach nauki i technologii, takich jak sztuczna inteligencja, które w wyraźny sposób go dotyczą. „Udana adopcja [of AI] będzie wymagać udziału społeczeństwa i zdobycia zaufania publicznego, a to oznacza, że ​​od nas, w służbie cywilnej, zależy, czy będziemy godni zaufania” – powiedziała w swoim przemówieniu programowym.

Odpowiadając na pytania dotyczące obecnych możliwości znaczącego zaangażowania obywateli, McLean stwierdziła, że ​​nie są jej znane żadne procesy konsultacji, które pozwoliłyby na osiągnięcie tego celu, ale byłoby „bardzo interesujące”, gdyby takowy istniał. „Mamy tu szansę dokonać przeglądu i zresetować niektóre sposoby interakcji rządu z ludźmi. Myślę, że to bardzo ważna sprawa”.

Odnotowując popularne sformułowanie ruchów na rzecz praw osób niepełnosprawnych: „Nic o nas bez nas”, Georgina Aitkenhead, badaczka ATI, powiedziała podczas panelu na temat inkluzywności, że oznacza to „nie powinniśmy robić rzeczy, które będą miały wpływ na ludzi w społeczeństwie, bez zaangażowani w ustalanie priorytetów i przyczynianie się do podejmowania decyzji.”

Dodała, że ​​nacisk na włączenie należy od samego początku uwzględnić w rozwoju, projektowaniu i wdrażaniu technologii.

Reklama

James Scott, starszy doradca rządowej Jednostki ds. Wdrożenia Odpowiedzialnych Technologii, zgodził się z tym, zauważając, że „często widzimy zaangażowanie na poziomie powierzchniowym, często jest już dość późno i dlatego możliwości zmiany kierunku są naprawdę ograniczone, ponieważ kluczowe decyzje zostały już podjęte ”.

Podejścia partycypacyjne

Scotta – który także współkierował rozwojem oprogramowania AutSpaces firmy ATI otwarte źródło Platforma „nauka obywatelska” zbudowana wokół wspierania potrzeb osób z autyzmem – dodała, że ​​projekty badawcze partycypacyjne mają realny potencjał, aby umożliwić społecznościom wyznaczanie kierunku podróży w decyzjach, które ich dotyczą.

„Zasadniczo platforma ta pomoże osobom autystycznym, które znają swoje doświadczenia zmysłowe, w stworzeniu lepszego zbioru danych do wykorzystania w badaniach i udoskonaleniu usług publicznych” – powiedział, dodając, że ostatecznym celem jest usprawnienie procesu projektowania usług publicznych poprzez od początku uwzględniać potrzeby osób nieneurotypowych, co następnie przyniesie korzyści wszystkim.

Podobne nastroje wokół znaczenia znaczące zaangażowanie z różnymi społecznościami na wczesnym etapie powtórzyła Helena Hollis, badaczka społeczna w grupie rzeczników Connected By Data, która w listopadzie 2023 r. zorganizowała eksperymentalny panel ludowy ds. sztucznej inteligencji, aby nawiązać kontakt z reprezentatywnymi członkami społeczeństwa w procesie debaty na temat dalszych działań z AI.

Częściowo zrobione w odpowiedzi na wąskie ukierunkowanie sektorowe z rządowy szczyt dotyczący bezpieczeństwa sztucznej inteligencji w Bletchley Park które miało miejsce w tym samym czasie, stwierdził Hollis, „okazało się, że było to naprawdę skuteczne, znaczące i przydatne posunięcie”.

Dodała, że ​​od samego początku należy uwzględnić kwestię włączania i uwzględnić pytania zadawane przez badaczy i decydentów. „Jeśli zapytamy: «Co potrafi sztuczna inteligencja i jak możemy rozwinąć tę technologię?» z natury będziesz zapraszał tylko określone osoby, aby odpowiedziały na twoje pytanie” – powiedział Hollis. „Jeśli zapytasz: «Jakiego rodzaju życie chcemy prowadzić i w jaki sposób sztuczna inteligencja to wspiera lub jak mogłaby to wspierać?» Cóż, zatem każdy, kto żyje życiem, może odpowiedzieć na to pytanie poprzez swoje przeżyte doświadczenie.

Hollis zauważyła również, że członkowie panelu w dalszym ciągu współpracują z Connected by Data i wyrazili silne pragnienie rozszerzenia podobnych praktyk partycypacyjnych.

Komentując to doświadczenie, uczestniczka Panelu Ludowego Margaret Colling stwierdziła, że ​​po intensywnym czterodniowym procesie uczenia się wśród członków pojawiło się poczucie podekscytowania i wzmocnienia.

„Nigdy nie spodziewałabym się, że będę miała spójne opinie na tak zaawansowany technicznie temat” – powiedziała. „Ale tak wiele chciałem powiedzieć – nagle wszyscy staliśmy się wpływowymi przedstawicielami naszych różnych społeczności i nasze głosy miały znaczenie.

„My, ogół społeczeństwa, jesteśmy w pełni zdolni do formułowania opinii na temat wszelkich kwestii związanych z naszym codziennym życiem, jeśli otrzymamy odpowiednie informacje. Możemy zaproponować inną perspektywę, często wyrażając obawy, które w innym przypadku mogłyby nie zostać poruszone”.

Rozbieżności mocy

Wypowiadając się na panelu poświęconym potencjalnemu rozwojowi sztucznej inteligencji ogólnej (AGI), prelegenci wyrazili obawy, że technologia AI jest w dużej mierze własnością niewielkiej liczby firm zagranicznych (głównie z USA i Chin).

Na przykład Michael Wooldridge, dyrektor ds. podstawowych badań nad sztuczną inteligencją w ATI, powiedział, że jest to „potencjalnie najbardziej istotna technologia XXI wieku”.ul stulecia i zasadniczo nie jesteśmy jego częścią w sensie posiadania go”.

John McDermid, informatyk z Uniwersytetu w Yorku, również stwierdził, że koncentracja technologii sztucznej inteligencji w stosunkowo niewielu rękach stanowi „prawdziwy problem” z wielu powodów.

Po pierwsze oznacza to, że z punktu widzenia bezpieczeństwa inżynierowie niezależni od firm będących właścicielami sztucznej inteligencji nie mogą ocenić potencjalnego ryzyka i szkód, ponieważ modele są w dużej mierze zamknięte w silosach korporacyjnych. Biorąc pod uwagę także szybko zmieniający się charakter modeli sztucznej inteligencji, McDermid dodał, że niewielkie zmiany w systemach mogą wywołać szereg efektów domina, których nie można poznać ze względu na brak dostępu.

To też zauważył obecnie jedynie gigantyczne korporacje dysponują zasobami finansowymi i obliczeniowymi na badania i rozwój najnowocześniejsze modele, dając im niesamowitą kontrolę nad tym, co zostanie wdrożone na świecie.

„Problem polega na tym, że władza zostaje w rękach niewielkiej liczby organizacji, które zachowują się tak, jak organizacje – starają się maksymalizować swoje zyski, zamiast koniecznie działać na rzecz dobra społecznego” – powiedział McDermid.

Dane wejściowe od pracowników

Chociaż McLean stwierdził, że w podejmowanie decyzji związanych ze sztuczną inteligencją należy również wnieść szerszy wkład ze strony bardziej zróżnicowanego grona ekspertów z innych dyscyplin (a nie tylko informatyki, biorąc pod uwagę społeczno-techniczny charakter technologii), inni mówcy wypowiadający się w ciągu dnia stwierdzili, że również jest to potrzebne wkład pracowników ze względu na ich wiedzę w zakresie szczegółów codziennych operacji biznesowych.

Komentując brak ochrony, jaką pracownicy w całej gospodarce gig otrzymują zarówno od swoich pracodawców, jak i państwa: w tym pracochłonne prace związane z etykietowaniem danych, niezbędne do funkcjonowania sztucznej inteligencji – socjolog Karen Gregory stwierdziła, że ​​tak nie mają innego wyboru, jak tylko zwrócić się do siebie o wsparcie w czasie pracy. „Istnieje tu ogromna ilość wzajemnej pomocy” – powiedziała. „Pracownicy w tych dziedzinach po prostu chcą, aby praca działała, a tak nie jest”.

„Są ekspertami od tych systemów” – powiedział Gregory. „Dokładnie wiedzą, gdzie popełniają błędy. Jeśli porozmawiasz z dostawcą w Edynburgu, może on powiedzieć, gdzie w mieście znajdują się wszystkie dziury, ale nie ma tam mechanizmu „głosowego” [from workers’ informal back channels] do regulacji.”

Wiążąc to z bardziej „sprofesjonalizowanymi”, umysłowymi częściami sektora technologicznego, badacz etycznej sztucznej inteligencji i członek związku United Tech and Allied Workers (UTAW) Matt Buckley dodał, że uważa za „dziwne” to, że w dyskusjach na temat sztucznej inteligencji: w pierwszej kolejności konsultuje się z kadrą kierowniczą i sprzedawcami, a nie z pracownikami w terenie, którzy faktycznie tworzą, utrzymują i dogłębnie rozumieją technologię.

Zdaniem Gregory’ego odpowiedź leży w stworzeniu skutecznych kanałów komunikacji, które wychwytują głosy pracowników i pomysły na ulepszenie sztucznej inteligencji, co według Buckleya obejmuje dwukierunkową komunikację między pracownikami a szefami, która daje zwykłym ludziom większy wpływ na to, jak sztuczna inteligencja stosowane również w miejscach pracy.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Vivaldi Bundles Proton VPN w przeglądarce internetowej

Funkcja jest obecnie dostępna tylko w wersji stacjonarnej przeglądarki Vivaldi. Bezpłatna wersja Proton VPN Pozwala użytkownikom łączyć się z serwerami w pięciu losowo...

Chieftec wprowadza etui UNI Series BS-20B-Op

Chieftec jest podekscytowany przedstawieniem nowej mini-wieżowej skrzynki na PC, UNI Series BS-20B-OP. Ta wszechstronna, kompaktowa obudowa łączy nowoczesny profesjonalny design z praktyczną funkcjonalnością,...

Zespół badawczy pokazuje certyfikowaną losowość kwantową

Zespół naukowców opublikował artykuł, w którym pokazuje, że komputer kwantowy może wyprodukować Certyfikowana losowośćktóry ma wiele obszarów zastosowań, takich jak kryptografia. Według artykułu...
Advertisment