Broń autonomiczna ogranicza swobodę działania i dewaluuje życie ludzkie


Zdaniem ekspertów w dziedzinie technologii wojskowej wykorzystywanie autonomicznych systemów broni (AWS) do atakowania ludzi podważy moralną swobodę działania i doprowadzi do ogólnej dewaluacji życia.

Rozmawiając przy Konferencja wiedeńska na temat autonomicznych systemów uzbrojenia 30 kwietnia 2024 r. – forum utworzone przez rząd austriacki w celu omówienia bieżących wyzwań moralnych, etycznych, prawnych i humanitarnych, jakie stwarza broń napędzana sztuczną inteligencją (AI) – eksperci rozmawiali o wpływie AWS na godność ludzką oraz o tym, jak algorytmicznie przemoc umożliwiona ostatecznie odczłowieczy zarówno jej cele, jak i operatorów.

Konkretne obawy wyrażone przez ekspertów podczas konferencji dotyczyły potencjalnej dehumanizacji, gdy ludzie znajdą się w obliczu śmiercionośnej siły zredukowane do punktów danych i liczb na ekranie; ryzyko dyskryminacji podczas wyboru celów ze względu na stronniczość w programowaniu lub stosowanych kryteriach; a także emocjonalne i psychologiczne oderwanie operatorów od ludzkich konsekwencji ich działań.

Prelegenci poruszyli także kwestię, czy kiedykolwiek będzie możliwa znacząca kontrola człowieka nad AWS ze względu na połączenie tendencji automatyzacji i tego, w jaki sposób taka broń zwiększa prędkość działań wojennych przekraczającą ludzkie możliwości poznania.

Etyka zabijania algorytmicznego

Podkreślanie jego pracy nad etyką broni autonomicznej z naukowcem Elke SchwarzNeil Renic, badacz w Centrum Studiów Wojskowych w Kopenhadze, powiedział, że główną troską AWS jest to, w jaki sposób mogliby oni jeszcze bardziej zintensyfikować szersze systemy przemocy, w które już są osadzone.

„Broń autonomiczna oraz systematyczne zabijanie, które umożliwi i przyspieszy, prawdopodobnie wywrze presję na godność ludzką na dwa różne sposoby, po pierwsze poprzez zachęcanie do moralnej dewaluacji celów” – powiedział, dodając, że „ekstremalna systematyzacja” istot ludzkich w ramach AWS bezpośrednio narzuci lub przynajmniej zachęci do przyjęcia z góry ustalonych i zbyt szerokich kategorii kierowania.

Reklama

„To prymitywne i całkowite uprzedmiotowienie człowieka bardzo łatwo prowadzi do utraty podstawowych ograniczeń, a więc pozbawienia docelowych podstawowych praw i godności. Efekty te możemy zaobserwować, badając historię systematycznego zabijania”.

Dla Fan Yanga, adiunkta prawa międzynarodowego na Wydziale Prawa Uniwersytetu Xiamen, problem stronniczości w AWS objawia się w tym, że zarówno dane wykorzystywane do uczenia systemów, jak i interakcje ludzi z nimi.

Zauważając, że stronniczość w AWS prawdopodobnie przełoży się na bezpośrednie ofiary w ludziach, Yang stwierdził, że jest to o rząd wielkości gorsze niż na przykład bycie ofiarą zmiany ceny dyskryminacja w algorytmie detalicznym.

„Z technicznego punktu widzenia niemożliwe jest wyeliminowanie uprzedzeń w projektowaniu i rozwoju AWS” – powiedział. „Stronniczość prawdopodobnie utrzyma się, nawet jeśli w ostatecznym kodzie znajdzie się element ludzkiej kontroli, ponieważ z psychologicznego punktu widzenia ludzcy dowódcy i operatorzy mają tendencję do nadmiernego ufania jakiejkolwiek opcji lub decyzji zalecanej przez AWS”.

Yang dodał, że wszelkie dyskryminujące ataki – czy to w wyniku uprzedzeń wpajonych w dane, czy też uprzedzeń ludzkich operatorów, by ufać produktom maszyn – prawdopodobnie zaostrzą konflikt poprzez dalszą marginalizację niektórych grup lub społeczności, co może ostatecznie eskalować przemoc i podważać pokojowe porozumienie. rozwiązania.

Erozja ludzkiej sprawczości

Renic dodał, że systemowy i algorytmiczny charakter przemocy stosowanej przez AWS może również podważyć „moralną sprawczość” operatorów używających broni.

„W ramach wzmożonych systemów przemocy ludzie często tracą władzę lub pozbawiają się władzy jako podmioty moralne” – stwierdził. „Tracą lub rezygnują ze swojej zdolności do autorefleksji i wydawania znaczącej oceny moralnej na polu bitwy, a w systemach przemocy algorytmicznej prawdopodobnie zobaczymy, jak zaangażowane osoby coraz bardziej oddają swój osąd autorytetowi algorytmów”.

Broń autonomiczna nie położy kresu zaangażowaniu człowieka [but] zmienią i zniekształcą ludzkie relacje z przemocą, potencjalnie na gorsze

Neil Renic, Centrum Studiów Wojskowych

Renic dodał ponadto, że w wyniku „procesów rutynizacji”, do których zachęca się skomputeryzowane zabijanie, operatorzy AWS tracą zarówno zdolność, jak i skłonność do moralnego kwestionowania takich systemów, co prowadzi do innego rodzaju dehumanizacji.

Komentując szkodliwy wpływ AWS na jego operatorów, Amal El Fallah Seghrouchni, prezes wykonawczy Międzynarodowego Centrum Sztucznej Inteligencji w Maroku, stwierdził, że istnieje podwójny problem: „wirtualność” i „prędkość”.

Podkreślając fizyczną odległość między wojskowym użytkownikiem AWS a teatrem operacyjnym, na którym wdrażana jest ta technologia, zauważyła, że ​​konsekwencje zautomatyzowanych, śmiercionośnych decyzji nie są widoczne w ten sam sposób oraz że sama szybkość, z jaką decyzje podejmowane przez te systemy mogą opuścić operatorów z brakiem świadomości.

W kwestii czy cele powinny być wyznaczane autonomicznie przez AWS na podstawie ich cech charakterystycznych żaden mówca nie opowiedział się za tym rozwiązaniem.

Anja Kaspersen, dyrektor ds. rozwoju rynków globalnych i technologii pionierskich w Instytucie Inżynierów Elektryków i Elektroników (IEEE), stwierdziła na przykład, że w przypadku sztucznej inteligencji i uczenia maszynowego w ogóle systemy często będą charakteryzowały się akceptowalnym poziomem błędów.

„Masz 90% dokładności, to jest w porządku. Ale w trybie operacyjnym [combat] w teatrze utrata 10% oznacza utratę wielu, wielu, wielu istnień ludzkich” – powiedziała. „Akceptacja targetowania oznacza akceptację straty w życiu człowieka – to jest niedopuszczalne”.

Renic dodał, chociaż mogą istnieć mniej problematyczne scenariusze, w których AWS może swobodniej wybierać swoje cele – na przykład położenie morskie z dala od cywilów, gdzie identyfikowaną cechą jest umundurowany wróg na pokładzie statku – istnieje niezliczona ilość scenariuszy, w których chory -zdefiniowane lub kwestionowane cechy mogą zostać obliczone w celu utworzenia kategorii „wybranego wroga” z straszliwymi skutkami.

„Myślę tutaj o tym, ile nieszczęścia i niesprawiedliwej krzywdy wyrządziła cecha „mężczyzny w wieku wojskowym”” – powiedział. „Martwię się, że na przykład ta cecha mężczyzny w wieku wojskowym jest zakodowana w autonomicznej broni. Myślę, że jest to rodzaj wyzwania moralnego, które powinno naprawdę sprawić nam dyskomfort w tych dyskusjach”.

Wśród Renic i innych mówców konsensus był co do tego, że usystematyzowane podejście do zabijania stworzone przez AWS oraz łatwość, z jaką różne podmioty będą mogły wdrażać takie systemy, ostatecznie obniżą próg uciekania się do przemocy.

„Naszym problemem nie jest wymazanie ludzkości – broń autonomiczna nie położy kresu zaangażowaniu człowieka” – powiedział Renic. „Jednak wraz z wojskową sztuczną inteligencją w szerszym ujęciu zmienią i zniekształcą ludzkie relacje z przemocą, potencjalnie na gorsze”.

Jeśli chodzi o regulację technologiikonsensus był taki, że w pełni autonomiczna broń powinna być całkowicie zakazana, natomiast każdy inny rodzaj i aspekt AWS powinien podlegać rygorystycznym regulacjom, w tym proces wyboru celu, skala użytej siły w danym przypadku oraz zdolność człowieka do znaczącej interwencji .



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

OneXPlayer X1 Mini to najbardziej wyposażony w funkcje przenośny komputer do gier w historii

Obrazy: OneXPlayerAle gdybym miał wybierać pomiędzy wersją 10,95-calową a 8,8-calową, niezauważoną, z baterią 65 Wh tej samej wielkości (tak, są tego samego...

GRID oferuje duże zniżki na popularną zdemontowaną dekorację iPhone’a

Gdy w przyszłym miesiącu zbliżamy się do Dnia Ojca, nasze przyjaciółmi w GRID Studio prowadzą w tym tygodniu wyprzedaż z pewnymi znaczącymi rabatami...

Modny tracker Lily 2 firmy Garmin jest nadal w sprzedaży za 50 dolarów taniej

Jako zagorzały biegacz rozumiem potrzebę śledzenia wskaźników sprawności. To powiedziawszy, w ostatnich tygodniach zirytowało mnie również natłok powiadomień, które otrzymuję na nadgarstku...
Advertisment