Wielka Brytania, Stany Zjednoczone i Australia wspólnie testują rój dronów z obsługą sztucznej inteligencji


Rząd Wielkiej Brytanii rozmieścił „chmę współpracujących” autonomicznych dronów do wykrywania i śledzenia celów wojskowych przy użyciu sztucznej inteligencji (AI) w ramach wspólnej próby z Australią i USA.

Próba, zorganizowana przez brytyjskie Laboratorium Nauki i Technologii Obronnej (Dstl) i odbyła się w kwietniu 2023 r., obejmowała rozmieszczenie dronów w „reprezentatywnym środowisku” w czasie rzeczywistym i ponowne przeszkolenie ich modeli AI w trakcie lotu.

Obejmował on również „wymianę” różnych modeli uczenia maszynowego (ML) między dronami uczestniczących krajów oraz rozmieszczenie tych samych modeli w szeregu pojazdów naziemnych w celu dalszego przetestowania ich możliwości identyfikacji celów.

„Trójstronne zespoły współpracowały, aby opracować wspólne modele uczenia maszynowego (ML), zastosować procesy testowania i oceny oraz latać na różnych krajowych UAV” – powiedział Ministerstwo Obrony Wielkiej Brytanii (MON). „Modele ML zostały szybko zaktualizowane w celu uwzględnienia nowych celów i udostępnione koalicji, a modele AI zostały ponownie przeszkolone, aby sprostać zmieniającym się wymaganiom misji”.

Ministerstwo Obrony stwierdziło ponadto, że wykorzystanie autonomicznych systemów do niezależnego wykrywania i śledzenia celów wroga „będzie miało ogromny wpływ na zdolności wojskowe koalicji” oraz że wojskowa sztuczna inteligencja musi być rozwijana „w tempie, jeśli mamy utrzymać przewagę operacyjną”.

Prowadzony w ramach umowy AUKUS – trójstronnego paktu bezpieczeństwa między rządami Australii, Wielkiej Brytanii i USA w celu rozwijania współpracy wojskowej w całym regionie Indo-Pacyfiku w obszarach takich jak atomowe okręty podwodne, broń hipersoniczna i sztuczna inteligencja – próba stanowiła część filaru zaawansowanych zdolności koalicji , zwany inaczej Filarem 2.

Reklama

Celem tej pracy jest wspólne przyspieszenie wspólnego zrozumienia sztucznej inteligencji przez te trzy rządy w kontekście wojskowym, a ostatecznie wdrożenie technologii w operacjach.

„Ta próba demonstruje militarną przewagę zaawansowanych zdolności AUKUS, ponieważ pracujemy w koalicji, aby identyfikować, śledzić i zwalczać potencjalnych przeciwników z większej odległości i z większą prędkością” – powiedział generał porucznik Rob Magowan, zastępca szefa sztabu obrony Wielkiej Brytanii.

Przyspieszenie postępu technologicznego zapewni przewagę operacyjną niezbędną do pokonania obecnych i przyszłych zagrożeń na polu bitwy. Zobowiązujemy się do współpracy z partnerami, aby osiągnąć ten cel, jednocześnie promując odpowiedzialny rozwój i wdrażanie sztucznej inteligencji”.

Abe Denmark, starszy doradca sekretarza obrony USA w firmie Aukus, dodał, że zaawansowane technologie sztucznej inteligencji mogą zmienić sposób, w jaki trzy rządy podchodzą do wyzwań związanych z obronnością i bezpieczeństwem.

„Ta demonstracja zdolności jest naprawdę wspólnym wysiłkiem, a zatem jest kluczowym krokiem w naszej wspólnej inicjatywie, aby wyprzedzać pojawiające się zagrożenia” – powiedział. „Łącząc naszą wiedzę i zasoby poprzez nasze partnerstwa AUKUS, możemy zapewnić, że nasze siły zbrojne są wyposażone w najnowsze i najskuteczniejsze narzędzia do obrony naszych narodów i przestrzegania zasad wolności i demokracji na całym świecie”.

W próbie uczestniczyło ponad 70 wojskowych i cywilnych pracowników obronnych oraz wykonawców przemysłowych, w tym personel dostawców dronów Blue Bear i Insitu.

MON wcześniej ogłoszony w styczniu 2021 r. przeprowadziła próbę autonomicznych „rojowych dronów” w Cumbrii w ramach programu Dstl Many Drones Make Light Work, który obejmował 20 dronów działających wspólnie w celu dostarczenia sześciu różnych ładunków.

Dalej próby roju dronów zostały przeprowadzone przez Royal Marines w ramach programu Autonomous Advance Force 4.0 w lipcu 2021 r., gdzie sześć dronów otrzymało zadanie rozpoznania i ponownego zaopatrzenia jednostek naziemnych.

W czerwcu 2022 roku Ministerstwo Obrony Narodowej (MON) zaprezentowało swój Obronna strategia sztucznej inteligencji nakreślając, w jaki sposób Wielka Brytania będzie ściśle współpracować z sektorem prywatnym w celu nadania priorytetu badaniom, rozwojowi i eksperymentom w zakresie sztucznej inteligencji w celu „zrewolucjonizowania zdolności naszych sił zbrojnych”.

Chociaż szczegóły dotyczące jego podejścia do autonomicznej broni były lekkie w 72-stronicowy dokument strategiczny, załącznik do towarzyszącego dokumentu strategicznego wspomniane systemy, które mogą identyfikować, wybierać i atakować cele bez „odpowiedniego do kontekstu zaangażowania człowieka”, byłyby nie do przyjęcia.

W raport w sprawie „nowych technologii wojskowych”, opublikowanym w listopadzie 2022 r. przez Congressional Research Service, analitycy zauważyli, że około 30 krajów i 165 organizacji pozarządowych (NGO) wezwało do wprowadzenia z wyprzedzeniem zakazu używania autonomicznej broni ze względu na kwestie etyczne związane z jej użyciem , w tym potencjalny brak odpowiedzialności i niezdolność do przestrzegania międzynarodowych przepisów dotyczących konfliktów.

Izba Lordów bada broń AI

W styczniu 2023 roku Izba Lordów ustanowiła tzw AI w Komitecie Systemów Uzbrojenia zbadanie etyki opracowywania i rozmieszczania broni autonomicznej, w tym sposobów jej bezpiecznego i niezawodnego użycia, jej potencjału do eskalacji konfliktów oraz zgodności z prawem międzynarodowym.

Podczas pierwsze posiedzenie komisji dowodowej w marcu 2023 r. Lordowie zostali ostrzeżeni, że potencjalnych korzyści wynikających z wykorzystania sztucznej inteligencji w operacjach wojskowych nie należy łączyć z lepszym przestrzeganiem międzynarodowego prawa humanitarnego.

Kolejne posiedzenia komisji – dostępne online za pośrednictwem oficjalnych nagrań i transkrypcji – budziły dalsze obawy.

NA 20 kwietniana przykład James Black, zastępca dyrektora grupy ds. obrony i bezpieczeństwa w RAND Europe, zauważył, że podczas gdy rozmowy na temat użycia broni sztucznej inteligencji przez podmioty niepaństwowe zwykle przywołują „obrazy brutalnych organizacji ekstremistycznych”, powinny one również zawierać „obrazy brutalnych organizacji ekstremistycznych”. wielkie międzynarodowe korporacje, które są tego typu organizacjami, które przodują w rozwijaniu tej technologii”.

Dodał: „Idąc dalej, wiele z tych rzeczy będzie trudnych do kontrolowania z perspektywy przeciwdziałania i nierozprzestrzeniania, ze względu na ich nieodłączną naturę opartą na oprogramowaniu.

„Wiele naszych systemów kontroli eksportu i systemów przeciwdziałania lub nierozprzestrzeniania, które istnieją, koncentruje się na tradycyjnym sprzęcie, takim jak rakiety, silniki lub materiały jądrowe. Tego rodzaju rzeczy to inna propozycja i oczywiście wyzwanie”.

Kenneth Payne, profesor strategii w King’s College London, dodał jednak, że rosnące znaczenie sektora prywatnego w rozwoju sztucznej inteligencji nie jest nieuniknione i że rządy mogą podjąć kroki w celu rozwiązania problemu dominacji korporacji w tej dziedzinie.

„Konkretnym przykładem jest zwiększenie ilości mocy obliczeniowej dostępnej dla badaczy w środowisku uniwersyteckim. Jest to częścią nowej krajowej strategii komputerowej. Zdolność sztucznej inteligencji do modelu fundacji suwerennej byłaby konkretnym krokiem w ramach szerszego projektu ponownej demokratyzacji tych działań” – powiedział.

Payne powiedział ponadto Lordom, że badania gier wojennych dotyczące starć wojskowych prowadzonych przez „zespoły człowiek-maszyna” pokazują, że może dojść do „dość szybkiej spirali eskalacji”, ponieważ „niepewność co do tego, ile przeciwnik zlecił automatycznym decydentom, oznaczała, że skoczyć z pistoletu i dostać odwet w pierwszej kolejności”.

Dodał, że chociaż ogólnie dobrze rozumiemy, w jaki sposób ludzie myślą o odstraszaniu, eskalacji i przymusie, nie mamy podobnego zrozumienia tego, jak maszyny poruszałyby się po tej złożonej dynamice.

Payne zauważył ponadto, że sztuczna inteligencja w tym kontekście nie tylko zastąpi ludzi, ale umożliwi organizacjom wojskowym podejmowanie „jakościowo różnych” działań: „Nie ma ludzkiego odpowiednika 10-tysięcznego roju powietrznego ani podwodnej ławicy, która może pozostać morze w nieskończoność”.

Podczas osobna sesja 27 kwietniaMariarosaria Taddeo, profesor nadzwyczajny w Oxford Internet Institute, powiedziała, że ​​nieprzewidywalność sztucznej inteligencji jest „nieodłączną cechą samej technologii”, dodając: „Jeśli zamierzamy używać sztucznej inteligencji w działaniach wojennych, musimy upewnić się, że możemy stosować przepisy , w tym w odniesieniu do obowiązków spoczywających na ludziach, co jest bardzo trudne do wykonania i jesteśmy bardzo daleko od znalezienia rozwiązania”.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Wywiad z dyrektorem: szef Salesforce AI omawia dynamiczne schematy blokowe

Starszy wiceprezes Salesforce ds sztuczna inteligencja (AI) Jayesh Govindarajan kieruje działem sztucznej inteligencji firmy i jest odpowiedzialny za rodzinę produktów, które dostawca oprogramowania...

Usterka programu aktualizacji iPhone’a powoduje, że klienci otrzymują błędne e-maile dotyczące „anulowanych” transakcji

Ciekawy e-mail od Apple trafia do klientów programu aktualizacji iPhone'a. Wiadomość informuje wiele osób, które jesienią ubiegłego roku zdecydowały się na zakup...

Jak Dead Boy Detectives Netflixa łączy się z Sandmanem Neila Gaimana

Jako opowieść o historiach, nic dziwnego, że Neila Gaimana Sandman miałby pewne postacie, które inni twórcy chcieliby wybrać i się...
Advertisment