Алгарытмічная вайна: ці з'яўляюцца робаты-забойцы новым тварам сучаснай вайны?

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

Алгарытмічная вайна: ці з'яўляюцца робаты-забойцы новым тварам сучаснай вайны?

Алгарытмічная вайна: ці з'яўляюцца робаты-забойцы новым тварам сучаснай вайны?

Тэкст падзагалоўка
Сённяшняя зброя і баявыя сістэмы неўзабаве могуць ператварыцца з простага абсталявання ў аўтаномныя аб'екты.
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Студзень 10, 2023

    Краіны працягваюць даследаваць сістэмы вядзення вайны са штучным інтэлектуальным інтэлектам (AI), нягледзячы на ​​тое, што супраціўленне смяротнай аўтаномнай зброі ў грамадзянскай супольнасці ўзрасло. 

    Алгарытмічны кантэкст баявых дзеянняў

    Машыны выкарыстоўваюць алгарытмы (набор матэматычных інструкцый) для вырашэння задач, якія імітуюць чалавечы інтэлект. Алгарытмічны бой прадугледжвае распрацоўку сістэм на базе штучнага інтэлекту, якія могуць аўтаномна кіраваць зброяй, тактыкай і нават цэлымі ваеннымі аперацыямі. Машыны, якія аўтаномна кіруюць сістэмамі зброі, выклікалі новыя дэбаты адносна ролі аўтаномных машын у ваенных дзеяннях і яе этычных наступстваў. 

    Згодна з міжнародным гуманітарным правам, любая машына (незалежна ад таго, узброеная ці не) павінна прайсці строгую праверку перад разгортваннем, асабліва калі яна прызначана для прычынення шкоды людзям або будынкам. Гэта распаўсюджваецца на сістэмы штучнага інтэлекту, якія распрацоўваюцца з мэтай саманавучання і самакарэкцыі, што можа прывесці да таго, што гэтыя машыны заменяць кіраваныя чалавекам сістэмы ўзбраення ў ваенных дзеяннях.

    У 2017 годзе Google атрымала сур'ёзную рэакцыю сваіх супрацоўнікаў, калі высветлілася, што кампанія супрацоўнічае з Міністэрствам абароны ЗША над распрацоўкай сістэм машыннага навучання для выкарыстання ў войску. Актывісты былі занепакоеныя тым, што стварэнне, магчыма, самаразвіваюцца ваенных робатаў можа парушыць грамадзянскія свабоды або прывесці да ілжывага распазнання мэты. Выкарыстанне тэхналогіі распазнавання твараў у войску павялічылася (ужо ў 2019 годзе) для стварэння базы даных мэтавых тэрарыстаў або асоб, якія ўяўляюць цікавасць. Крытыкі выказваюць занепакоенасць тым, што прыняцце рашэнняў з дапамогай штучнага інтэлекту можа прывесці да катастрафічных вынікаў, калі ўмяшанне чалавека будзе парушана. Тым не менш, большасць членаў Арганізацыі Аб'яднаных Нацый выступаюць за забарону смяротных аўтаномных сістэм узбраення (LAWS) з-за магчымасці для гэтых суб'ектаў стаць ізгоем.

    Разбуральнае ўздзеянне

    Падзенне лічбаў набору ў войска, якое назіраецца ў многіх заходніх краінах — тэндэнцыя, якая паглыбілася ў 2010-я гады — з'яўляецца ключавым фактарам, які спрыяе прыняццю аўтаматызаваных ваенных рашэнняў. Яшчэ адным фактарам, які абумоўлівае прыняцце гэтых тэхналогій, з'яўляецца іх патэнцыял для аптымізацыі і аўтаматызацыі дзеянняў на полі бою, што прыводзіць да павышэння баявой эфектыўнасці і зніжэння эксплуатацыйных выдаткаў. Некаторыя зацікаўленыя бакі ваеннай прамысловасці таксама сцвярджаюць, што ваенныя сістэмы і алгарытмы, якія кіруюцца штучным інтэлектам, могуць знізіць чалавечыя ахвяры, прадастаўляючы дакладную інфармацыю ў рэжыме рэальнага часу, якая можа павысіць дакладнасць разгорнутых сістэм, каб яны паражалі намечаныя мэты. 

    Калі на тэатрах па ўсім свеце будзе разгорнута больш ваенных сістэм узбраення, якія кіруюцца штучным інтэлектам, у зонах канфліктаў можа быць разгорнута менш чалавечага персаналу, што знізіць страты ваенных на тэатрах ваенных дзеянняў. Вытворцы зброі, кіраванай штучным інтэлектам, могуць уключаць контрмеры, такія як выключальнікі, каб гэтыя сістэмы можна было неадкладна адключыць у выпадку ўзнікнення памылкі.  

    Наступствы зброі, кіраванай штучным інтэлектам 

    Больш шырокія наступствы выкарыстання аўтаномнай зброі ва ўсім свеце могуць уключаць:

    • Аўтаномнае ўзбраенне разгортваецца замест пешых салдат, што зніжае выдаткі на вядзенне вайны і страты салдат.
    • Больш шырокае прымяненне ваеннай сілы асобнымі краінамі з большым доступам да аўтаномных або механізаваных сродкаў, паколькі скарачэнне або ліквідацыя страт у войсках можа мінімізаваць унутраны грамадскі супраціў краіны вядзенню вайны на чужых землях.
    • Эскалацыя абаронных бюджэтаў паміж краінамі для ваеннага перавагі штучнага інтэлекту ў будучых войнах можа вырашацца хуткасцю прыняцця рашэнняў і складанасцю будучай зброі і войскаў, якія будуць кантралявацца штучным інтэлектам. 
    • Пашырэнне партнёрства паміж людзьмі і машынамі, калі дадзеныя будуць імгненна прадастаўляцца салдатам-людзям, дазваляючы ім карэктаваць тактыку і стратэгію бою ў рэжыме рэальнага часу.
    • Краіны ўсё часцей выкарыстоўваюць рэсурсы сваіх прыватных тэхналагічных сектараў для ўмацавання сваіх абарончых магчымасцей штучнага інтэлекту. 
    • Адзін або некалькі глабальных дагавораў, якія прасоўваюцца ў Арганізацыі Аб'яднаных Нацый, якія забараняюць або абмяжоўваюць выкарыстанне аўтаномнай зброі. Такую палітыку, хутчэй за ўсё, будуць ігнараваць вышэйшыя ўзброеныя сілы свету.

    Пытанні для каментавання

    • Як вы думаеце, ці прынясуць алгарытмічныя баі карысць людзям, якія знаходзяцца на ваеннай службе?
    • Ці лічыце вы, што сістэмам штучнага інтэлекту, прызначаным для вядзення баявых дзеянняў, можна давяраць, ці іх трэба абмежаваць або забараніць адразу?

    Спасылкі Insight

    Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі:

    Індыйскі абаронны агляд Алгарытмічная вайна - Свет чакае