Wywiad AI: Elke Schwarz, profesor teorii politycznej


Etyczne uzasadnienia rozwoju i wdrażania sztucznej inteligencji (AI) w wojsku nie wytrzymują kontroli, zwłaszcza te dotyczące użycia autonomicznych systemów uzbrojenia, mówi ekspert ds. etyki AI, Elke Schwarz.

Profesor nadzwyczajny teorii politycznej na Queen Mary University w Londynie i autor m.in Maszyny śmierci: etyka brutalnych technologiiSchwarz mówi, że głosy wzywające do ostrożności i powściągliwości, jeśli chodzi o wdrażanie sztucznej inteligencji w wojsku, są „coraz bardziej zagłuszane” przez mieszankę firm sprzedających produkty i decydentów „zafascynowanych i zachwyconych potencjałem” sztucznej inteligencji.

Rządy na całym świecie od dawna wyrażają wyraźne zainteresowanie rozwojem i wdrażaniem szeregu systemów sztucznej inteligencji w swoich operacjach wojskowych, od logistyki i zarządzania zasobami po amunicję precyzyjnie kierowaną i śmiercionośna autonomiczna broń (LAWS), które mogą wybierać, wykrywać i atakować cele przy niewielkiej lub żadnej interwencji człowieka.

Chociaż uzasadnienia dla wojskowej sztucznej inteligencji są różne, zwolennicy często argumentują, że jej rozwój i wdrożenie jest „moralnym imperatywem”, ponieważ zmniejszy liczbę ofiar, ochroni ludność cywilną i ogólnie zapobiegnie przedłużającym się wojnom.

Wojskowa sztuczna inteligencja jest również postrzegana jako geopolityczna konieczność, ponieważ jest potrzebna do utrzymania przewagi technologicznej nad obecnymi i potencjalnymi przeciwnikami.

„Musisz pomyśleć o tym, czym jest wojna i czym jest wojna” — mówi Schwarz w Computer Weekly. „To nie jest problem inżynieryjny. Nie jest to też problem technologiczny. To problem społeczno-polityczny, którego nie można rozwiązać za pomocą technologii, a nawet więcej technologii – robi się coś wręcz przeciwnego”.

Reklama

Dodaje, że uczęszczając na tzw Konferencja Odpowiedzialna Sztuczna Inteligencja w Domenach Militarnych w połowie lutego 2023 r., podczas światowego szczytu mającego na celu podnoszenie świadomości i omawianie kwestii związanych z AI w konfliktach zbrojnych, delegaci rządowi z całego świata byli bardzo podekscytowani – choć nieco zaniepokojeni – perspektywą wykorzystania AI w wojsku. Tylko jedna osoba – delegat z Filipin – mówiła o tym, co AI może zrobić dla pokoju.

„Był jeden głos, który faktycznie zastanawiał się, w jaki sposób możemy osiągnąć pokojowy kontekst” – mówi.

Etyczne maszyny do zabijania

Schwarz mówi, że pojęcie „etycznej broni” naprawdę nabrało rozpędu dopiero po tym, jak administracja Obamy zaczęła intensywnie używać dronów do przeprowadzania zdalnych ataków w Iraku i Afganistanie, co według obrońców zmniejszyłoby liczbę ofiar wśród ludności cywilnej.

„Ponad dekada działań wojennych dronów dała nam wyraźną wskazówkę, że ofiary cywilne niekoniecznie są zmniejszone”, mówi, dodając, że wygoda, jaką zapewnia technologia, w rzeczywistości obniża próg użycia siły. „Być może możesz zarządzić nieco dokładniejsze uderzenie, ale jeśli będziesz bardziej skłonny do użycia przemocy niż wcześniej, to oczywiście cywile ucierpią”.

Dodaje, że masowa ekspansja wojny dronów pod rządami Obamy doprowadziło również wielu do argumentów, że wykorzystanie zaawansowanych technologii w wojsku jest „moralnym imperatywem”, ponieważ chroni życie ich własnych żołnierzy, i że podobne argumenty są obecnie wysuwane na korzyść LAWS.

„Mamy broń, która pozwala nam na duży dystans, a wraz z nią brak ryzyka dla jednej ze stron, ale niekoniecznie przekłada się to na mniejsze ryzyko dla innych – tylko wtedy, gdy używasz ich w bardzo precyzyjny sposób, który nigdy dzieje się na wojnie”, mówi, dodając, że skutki tego są jasne: „Niektórym życie zostało oszczędzone, a innym nie”.

Dla Schwarza te wydarzenia są niepokojące, ponieważ stworzyły sytuację, w której ludzie prowadzą „quasi-moralny dyskurs na temat broni – narzędzia do zabijania – jako czegoś etycznego”.

Jeśli będziesz bardziej skłonny do użycia przemocy niż wcześniej, to oczywiście cywile na tym ucierpią

Elke Schwarz z Queen Mary University w Londynie

Dodaje: „To dziwny zwrot, ale w tym właśnie jesteśmy… problem polega na tym, jak ich używamy i do czego. Ostatecznie są narzędziami do zabijania, więc jeśli używanie ich staje się łatwe, jest bardzo prawdopodobne, że są używane częściej, a to nie jest oznaką powściągliwości, ale wręcz przeciwnie – nie można tego określić jako etyczne w jakikolwiek sposób”.

Twierdząc, że nowe technologie wojskowe, takie jak broń autonomiczna, są etyczne, ponieważ pomagają szybciej kończyć wojny, Schwarz mówi, że „widzieliśmy coś wręcz przeciwnego” w ciągu ostatnich kilku dekad z przedłużającymi się wojnami mocarstw zachodnich, które niezmiennie używają wysoce zaawansowanej broni przeciwko kombatantom mającym wyraźną przewagę technologiczną.

Dodaje, że wykorzystanie sztucznej inteligencji w wojsku do monitorowania działalności człowieka i podejmowania „środków zapobiegawczych” jest również niepokojącym zjawiskiem, ponieważ redukuje ludzi do punktów danych i całkowicie spłaszcza wszelkie niuanse lub złożoność, jednocześnie znacznie zwiększając ryzyko dla osób otrzymujących dane. koniec.

„Pilna potrzeba określenia, gdzie coś może się wydarzyć [before it happens] w naprawdę dziwnym Raport mniejszości sposób stanie się najważniejszy, ponieważ ostatecznie taka jest logika pracy” — mówi.

„Widzę, że większy nacisk na sztuczną inteligencję jako ostateczne podłoże operacji wojskowych powoduje, że wszystko staje się o wiele bardziej niestabilne”.

Gra o tron

Inną słabością obecnego dyskursu na temat wojskowej sztucznej inteligencji jest niedostateczna dyskusja na temat różnic w sile między państwami w kategoriach geopolitycznych.

W raport w sprawie „nowych technologii wojskowych” opublikowanej w listopadzie 2022 r. przez Congressional Research Service, analitycy zauważyli, że około 30 krajów i 165 organizacji pozarządowych (NGO) wezwało do wyprzedzającego zakazu stosowania LAWS ze względu na kwestie etyczne związane z ich stosowaniem, w tym potencjalny brak odpowiedzialności i niezdolność do przestrzegania międzynarodowych przepisów dotyczących konfliktów.

Natomiast niewielka liczba potężnych rządów – przede wszystkim USA, które według badania z 2019 r jest „zdecydowanym liderem w rozwoju autonomicznego sprzętu i możliwości inwestycyjnych”, ale także Chiny, Rosja, Korea Południowa i Unia Europejska – były kluczowymi graczami we wprowadzaniu wojskowej sztucznej inteligencji.

„To naprawdę bardzo ważny punkt, że równowaga sił jest całkowicie zachwiana” — mówi Schwarz. „Narracja jest taka, że ​​dojdzie do wielkiego konfliktu o władzę [between] Chiny, Rosja, Ameryka, więc potrzebujemy wojskowej sztucznej inteligencji, ponieważ gdyby Chiny miały wojskową sztuczną inteligencję, byłyby znacznie szybsze i wszystko inne zginie”.

Zauważając, że żadne z tych wielkich mocarstw nie było celem wojen ekspedycyjnych w ciągu ostatniego półwiecza, Schwarz mówi, że to kraje najbardziej dotknięte wojną powinny mieć większy wpływ na sztuczną inteligencję w wojsku.

„To te kraje, które z większym prawdopodobieństwem staną się celem, najwyraźniej muszą mieć duży udział i coś do powiedzenia”, mówi, dodając, że większość z tych państw jest stosunkowo zgodna co do tego, że nie powinniśmy mieć PRAWA.

“[They argue] powinny istnieć solidne międzynarodowe ramy prawne, które zakazywałyby lub przynajmniej mocno regulowały takie systemy, i oczywiście zwykli podejrzani mówią: „Nie, nie, nie, to hamuje innowacje”, więc istnieje ogromna różnica sił.

Schwarz dodaje, że różnice w sile mogą również pojawić się między państwami sojuszniczymi wdrażającymi wojskową sztuczną inteligencję, ponieważ podejście niektórych graczy będzie prawdopodobnie musiało dostosować się do tego, kto jest najpotężniejszym aktorem, aby osiągnąć pożądany poziom łączności i interoperacyjności.

„Już teraz Stany Zjednoczone przeprowadzają pewne ćwiczenia Konwergencja projektu [with the UK], która jest częścią tego ogólnego łączenia w sieć różnych dziedzin i różnych rodzajów technologii. Zaryzykowałabym stwierdzenie, że ostatecznie Stany Zjednoczone będą miały większy wpływ na to, co się stanie, jak technologia powinna zostać wdrożona i jakie są ograniczenia technologii niż Wielka Brytania” – mówi.

„Sugerowałbym, że nawet w sojuszniczych sieciach zawsze będą istniały różnice w sile, które w chwili, gdy wszyscy są tak zafascynowani możliwościami sztucznej inteligencji, nie są tak naprawdę brane pod uwagę”.

Kształtowanie wojska na wzór Doliny Krzemowej

Głównym problemem związanym z rozwojem i wdrażaniem wojskowej sztucznej inteligencji jest to, że dzieje się to przy niewielkiej debacie lub nadzorze i jest kształtowane przez wąski program korporacyjny i polityczny.

Podkreślając wysiłki byłego dyrektora generalnego Google, Erica Schmidta, który jest współautorem Wiek sztucznej inteligencji: i nasza ludzka przyszłość w grudniu 2021 r. z byłym sekretarzem stanu USA Henry Kissingerem, a kto był odegrał kluczową rolę we wprowadzaniu sztucznej inteligencji do armii USA – Schwarz mówi, że chociaż tych kwestii nie można sprowadzić tylko do Schmidta, jest on pouczającym przykładem, biorąc pod uwagę jego znaczenie.

„Pozycjonują się jako„ znawcy ”i eksperci w zakresie tych systemów” — mówi. „W szczególności wraz ze Schmidtem śledziłem jego podróż i poparcie dla wojskowej sztucznej inteligencji przez ostatnie siedem do pięciu lat, a on był siłą napędową forsowania idei, że wszystkie siły zbrojne, a konkretnie wojsko USA i jego sojusznicy , trzeba być gotowym na sztuczną inteligencję… aby być konkurencyjnym i pozostać konkurencyjnym, zawsze trzeba walczyć o wizę, Rosję i Chiny”.

Dodaje jednak, jak mogłoby to działać w praktyce, a pułapki sił zbrojnych napędzanych sztuczną inteligencją są czasami rozwiązywane, ale zawsze „spychane na margines” rozmowy.

„W ostatecznym rozrachunku chodzi o to, aby wszystkie elementy sztucznej inteligencji były ze sobą połączone i aby procesy wojskowe, od pozyskiwania po operacje, były superszybkie i elastyczne – zasadniczo kształtując wojsko na wzór Doliny Krzemowej” — mówi. „Co się stanie, gdy przyspieszysz działania wojenne w ten sposób?”

Częściowym problemem jest to, że ogólnie prywatne firmy i podmioty mają bardzo nieproporcjonalny wpływ na to, jakie technologie cyfrowe wdrażają wojska, zwłaszcza w porównaniu ze zwykłymi ludźmi.

O tym, co dotyczy wszystkich, ostatecznie powinni decydować wszyscy, i powinno to dotyczyć każdej demokracji

Elke Schwarz z Queen Mary University w Londynie

Na przykład w czerwcu 2022 r. Ministerstwo Obrony Wielkiej Brytanii (MON) zaprezentowało swoje Obronna strategia sztucznej inteligencjinakreślając, w jaki sposób rząd będzie ściśle współpracować z sektorem prywatnym, aby nadać priorytet badaniom, rozwojowi i eksperymentom w zakresie sztucznej inteligencji w celu „zrewolucjonizowania zdolności naszych sił zbrojnych”.

„Nie mamy bezpośredniego demokratycznego wpływu na to, jak technologie wojskowe są budowane, konstytuowane lub konstruowane, i niekoniecznie jest to duży problem”, mówi Schwarz. „Myślę, że należy przeprowadzić szczerą rozmowę na temat roli prywatnych aktorów i tego, jaki rodzaj odpowiedzialności mają do spełnienia, ponieważ w tej chwili… jest to bardzo nieuregulowane”.

Dodaje, że debata publiczna na temat wojskowej sztucznej inteligencji jest szczególnie ważna, biorąc pod uwagę sejsmiczny, zmieniający ludzkość efekt, który twierdzą zwolennicy tej technologii.

„Sposób, w jaki może przetwarzać te dane i znajdować wzorce, jest w tym coś wspaniałego, ale to tylko maszyna obliczeniowa” – mówi. „Myślę, że podniesienie tego do rangi prawa naturalnego, rodzaj kolejnej iteracji ludzkości, podniesienie tego do rangi konieczności i nieuchronności jest przydatne dla niektórych, którzy chcą na tym zarobić, ale muszę jeszcze lepiej zrozumieć, w jaki sposób my jako ludzie i nasz kontekst społeczny, nasz kontekst polityczny i nasze wspólne etyczne życie mogą z tego ogromnie skorzystać”.

Schwarz dodaje, że chociaż te narracje mogą być przydatne dla niektórych, większość zwykłych ludzi będzie po prostu musiała poddać się wykorzystaniu technologii AI, „które zwykle mają zastrzeżone podstawy, o których nic nie wiemy i które ostatecznie nie przyniosą nam głębokich korzyści”.

Zamiast tego „poczucie pilności”, z jakim zwolennicy podchodzą do wojskowej sztucznej inteligencji i które, jak mówi Schwarz, „nie pozwala na szczerą, zniuansowaną i szczegółową debatę”, powinno zostać zastąpione wolniejszym, bardziej przemyślanym podejściem, które pozwala ludziom wspólnie decydować o przyszłości, którą chcą chcieć.

Konkluduje: „O tym, co dotyczy wszystkich, ostatecznie powinni decydować wszyscy i powinno to dotyczyć każdej demokracji”.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Czy plan AI SAP Labs może przyspieszyć migrację do chmury?

Położona na skąpanych w słońcu wzgórzach Prowansji, na północ od Cannes i Antibes, znajduje się Sophia Antipolis, znane centrum technologii i nauki, w...

Najlepsze wyposażenie BAL-27, kompilacja klas w MW3

Masz ochotę użyć karabinu szturmowego, który sprawdza się zarówno w walce z bliska, jak i na dystansie? Nie szukaj dalej...

Intel przygotowuje procesory Core Ultra 9 285K, Core Ultra 7 265K i Core Ultra 5 245K Arrow Lake-S do komputerów stacjonarnych

Raichu, znany z dokładnego przewidywania posunięć Intela, ujawnił intrygujące szczegóły dotyczące przyszłej oferty procesorów do komputerów stacjonarnych. Z przecieków wynika, że ​​Intel...
Advertisment