Algorytmiczne walki wojenne: czy zabójcze roboty są nową twarzą współczesnej wojny?

KREDYT WZROKU:
Image credit
iStock

Algorytmiczne walki wojenne: czy zabójcze roboty są nową twarzą współczesnej wojny?

Algorytmiczne walki wojenne: czy zabójcze roboty są nową twarzą współczesnej wojny?

Tekst podtytułu
Dzisiejsza broń i systemy wojenne mogą wkrótce ewoluować od zwykłego sprzętu do autonomicznych jednostek.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 10 stycznia 2023 r.

    Kraje nadal prowadzą badania nad sztucznie inteligentnymi systemami bojowymi (AI), mimo że w społeczeństwie obywatelskim wzrósł opór wobec śmiercionośnej, autonomicznej broni. 

    Kontekst walki algorytmicznej

    Maszyny wykorzystują algorytmy (zestaw instrukcji matematycznych) do rozwiązywania problemów naśladujących ludzką inteligencję. Algorytmiczne walki wojenne obejmują rozwój systemów opartych na sztucznej inteligencji, które mogą autonomicznie zarządzać bronią, taktyką, a nawet całymi operacjami wojskowymi. Maszyny autonomicznie kontrolujące systemy uzbrojenia zapoczątkowały nowe debaty dotyczące roli, jaką autonomiczne maszyny powinny odgrywać w działaniach wojennych, oraz jej implikacji etycznych. 

    Zgodnie z Międzynarodowym Prawem Humanitarnym każda maszyna (uzbrojona lub nieuzbrojona) powinna przejść rygorystyczne przeglądy przed użyciem, zwłaszcza jeśli ma wyrządzić szkody ludziom lub budynkom. Obejmuje to opracowywanie systemów sztucznej inteligencji, które ostatecznie staną się samouczące i samokorygujące, co może doprowadzić do tego, że te maszyny zastąpią sterowane przez człowieka systemy uzbrojenia w operacjach wojskowych.

    W 2017 roku Google spotkało się z ostrą reakcją swoich pracowników, gdy odkryto, że firma współpracuje z Departamentem Obrony Stanów Zjednoczonych w celu opracowania systemów uczenia maszynowego do wykorzystania w wojsku. Aktywiści obawiali się, że tworzenie potencjalnie samoewoluujących robotów wojskowych może naruszać wolności obywatelskie lub prowadzić do fałszywego rozpoznania celu. Wykorzystanie technologii rozpoznawania twarzy w wojsku wzrosło (już w 2019 r.) w celu stworzenia bazy danych docelowych terrorystów lub osób będących przedmiotem zainteresowania. Krytycy wyrazili obawy, że podejmowanie decyzji oparte na sztucznej inteligencji może prowadzić do katastrofalnych skutków, jeśli interwencja człowieka zostanie naruszona. Jednak większość członków Organizacji Narodów Zjednoczonych opowiada się za zakazem śmiercionośnych autonomicznych systemów uzbrojenia (LAWS) ze względu na możliwość, że te podmioty staną się nieuczciwe.

    Zakłócający wpływ

    Spadające dane dotyczące rekrutacji do wojska, których doświadcza wiele krajów zachodnich – trend, który pogłębił się w 2010 roku – są kluczowym czynnikiem przyczyniającym się do przyjęcia zautomatyzowanych rozwiązań wojskowych. Innym czynnikiem napędzającym przyjęcie tych technologii jest ich potencjał w zakresie usprawniania i automatyzacji operacji na polu bitwy, co prowadzi do zwiększenia wydajności działań wojennych i obniżenia kosztów operacyjnych. Niektórzy interesariusze z branży wojskowej twierdzili również, że systemy i algorytmy wojskowe kontrolowane przez sztuczną inteligencję mogą zmniejszyć liczbę ofiar w ludziach, dostarczając dokładnych informacji w czasie rzeczywistym, które mogą zwiększyć dokładność rozmieszczonych systemów, aby trafiały w zamierzone cele. 

    Jeśli w teatrach na całym świecie rozmieszczonych zostanie więcej systemów uzbrojenia wojskowego kontrolowanych przez sztuczną inteligencję, mniej personelu ludzkiego może zostać rozmieszczonych w strefach konfliktów, co zmniejszy liczbę ofiar wojskowych w teatrach działań wojennych. Twórcy broni opartej na sztucznej inteligencji mogą zastosować środki zaradcze, takie jak wyłączniki awaryjne, aby systemy te mogły zostać natychmiast wyłączone w przypadku wystąpienia błędu.  

    Implikacje broni kontrolowanej przez AI 

    Szersze konsekwencje rozmieszczania broni autonomicznej przez siły zbrojne na całym świecie mogą obejmować:

    • W miejsce piechoty rozmieszczane jest autonomiczne uzbrojenie, co zmniejsza koszty działań wojennych i liczbę ofiar wśród żołnierzy.
    • Większe użycie siły militarnej przez wybrane narody z większym dostępem do autonomicznych lub zmechanizowanych zasobów, ponieważ zmniejszenie lub wyeliminowanie ofiar żołnierzy może zminimalizować krajowy opór opinii publicznej wobec prowadzenia wojny w obcych krajach.
    • Eskalacja budżetów obronnych między narodami w celu uzyskania dominacji wojskowej AI, ponieważ przyszłe wojny mogą być rozstrzygane na podstawie szybkości podejmowania decyzji i wyrafinowania przyszłej broni i sił zbrojnych kontrolowanych przez AI. 
    • Rosnące partnerstwo między ludźmi a maszynami, w ramach którego dane będą natychmiast dostarczane ludzkim żołnierzom, co pozwoli im dostosować taktykę i strategię walki w czasie rzeczywistym.
    • Kraje coraz częściej wykorzystują zasoby swoich prywatnych sektorów technologicznych, aby wzmocnić swoje zdolności obronne w zakresie sztucznej inteligencji. 
    • Jeden lub więcej globalnych traktatów promowanych w Organizacji Narodów Zjednoczonych zakazujących lub ograniczających użycie broni autonomicznej. Taka polityka prawdopodobnie zostanie zignorowana przez czołowe siły zbrojne świata.

    Pytania do skomentowania

    • Czy sądzisz, że algorytmiczne walki wojenne przyniosą korzyści ludziom zaciągniętym do wojska?
    • Czy uważasz, że systemom sztucznej inteligencji przeznaczonym do działań wojennych można zaufać, czy też należy je ograniczyć lub całkowicie zakazać?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań:

    Międzynarodowy Komitet Czerwonego Krzyża Zmiana narracji: nie broń, ale technologie prowadzenia wojny
    Przegląd obrony Indii Wojna algorytmiczna – świat czeka