ალგორითმული ბრძოლები: არის თუ არა მკვლელი რობოტები თანამედროვე ომის ახალი სახე?

სურათის კრედიტი:
გამოსახულება საკრედიტო
iStock

ალგორითმული ბრძოლები: არის თუ არა მკვლელი რობოტები თანამედროვე ომის ახალი სახე?

ალგორითმული ბრძოლები: არის თუ არა მკვლელი რობოტები თანამედროვე ომის ახალი სახე?

ქვესათაური ტექსტი
დღევანდელი იარაღი და საბრძოლო სისტემები შესაძლოა მალე გადაიზარდოს უბრალო აღჭურვილობიდან ავტონომიურ ერთეულებად.
    • ავტორი:
    • ავტორის სახელი
      Quantumrun Foresight
    • იანვარი 10, 2023

    ქვეყნები აგრძელებენ ხელოვნურად ინტელექტუალური (AI) საბრძოლო სისტემების კვლევას, მიუხედავად იმისა, რომ სამოქალაქო საზოგადოებაში გაიზარდა წინააღმდეგობა ლეტალური, ავტონომიური იარაღის წინააღმდეგ. 

    ალგორითმული საბრძოლო კონტექსტი

    მანქანები იყენებენ ალგორითმებს (მათემატიკური ინსტრუქციების ერთობლიობას) ამოცანების გადასაჭრელად, რომლებიც ასახავს ადამიანის ინტელექტს. ალგორითმული საბრძოლო მოქმედებები გულისხმობს ხელოვნური ინტელექტის მქონე სისტემების განვითარებას, რომლებსაც შეუძლიათ დამოუკიდებლად მართონ იარაღი, ტაქტიკა და მთელი სამხედრო ოპერაციებიც კი. მანქანებმა, რომლებიც ავტონომიურად აკონტროლებენ იარაღის სისტემებს, ახალი დებატები გახსნეს იმ როლზე, რომელიც ავტონომიურმა მანქანებმა უნდა შეასრულონ ომში და მის ეთიკურ შედეგებზე. 

    საერთაშორისო ჰუმანიტარული სამართლის თანახმად, ნებისმიერი მანქანა (იარაღიანი თუ უიარაღო) უნდა გაიაროს მკაცრი შემოწმება დისლოცირებამდე, განსაკუთრებით იმ შემთხვევაში, თუ ის გამიზნულია ზიანის მიყენებაზე პირებისთვის ან შენობებისთვის. ეს ვრცელდება ხელოვნური ინტელექტის სისტემებზე, რომლებიც შემუშავებულია, რათა საბოლოოდ გახდეს თვითსწავლება და თვითშესწორება, რამაც შეიძლება გამოიწვიოს ამ მანქანებმა ჩაანაცვლოს ადამიანის მიერ კონტროლირებადი იარაღის სისტემები სამხედრო ოპერაციებში.

    2017 წელს Google-მა თანამშრომლების მხრიდან მწვავე რეაქცია მიიღო, როდესაც გაირკვა, რომ კომპანია მუშაობდა შეერთებული შტატების თავდაცვის დეპარტამენტთან, რათა შეემუშავებინა მანქანათმცოდნეობის სისტემები, რომლებიც გამოიყენებოდა ჯარში. აქტივისტები შეშფოთებულნი იყვნენ, რომ შესაძლოა თვითგანვითარებული სამხედრო რობოტების შექმნამ შეიძლება დაარღვიოს სამოქალაქო თავისუფლებები ან გამოიწვიოს ცრუ მიზნის ამოცნობა. ჯარში სახის ამოცნობის ტექნოლოგიის გამოყენება გაიზარდა (ჯერ კიდევ 2019 წელს) გამიზნული ტერორისტების ან დაინტერესებული პირების მონაცემთა ბაზის შესაქმნელად. კრიტიკოსებმა გამოთქვეს შეშფოთება, რომ ხელოვნური ინტელექტის საფუძველზე მიღებული გადაწყვეტილებების მიღებამ შეიძლება გამოიწვიოს კატასტროფული შედეგები, თუ ადამიანის ჩარევა კომპრომეტირებული იქნება. თუმცა, გაერთიანებული ერების ორგანიზაციის წევრების უმეტესობა მომხრეა ლეტალური ავტონომიური იარაღის სისტემების (LAWS) აკრძალვის მომხრე ამ ერთეულების თაღლითობის შესაძლებლობის გამო.

    დამრღვევი გავლენა

    სამხედრო რეკრუტირების მაჩვენებლების შემცირება, რომელსაც განიცდის მრავალი დასავლური ქვეყანა - ტენდენცია, რომელიც გაღრმავდა 2010-იან წლებში - არის მთავარი ფაქტორი, რომელიც ხელს უწყობს ავტომატური სამხედრო გადაწყვეტილებების მიღებას. კიდევ ერთი ფაქტორი, რომელიც განაპირობებს ამ ტექნოლოგიების მიღებას, არის მათი პოტენციალი ბრძოლის ველზე ოპერაციების გამარტივებისა და ავტომატიზაციისთვის, რაც გამოიწვევს ბრძოლის ეფექტურობის გაზრდას და საოპერაციო ხარჯების შემცირებას. სამხედრო ინდუსტრიის ზოგიერთი დაინტერესებული მხარე ასევე ამტკიცებს, რომ ხელოვნური ინტელექტის კონტროლირებადი სამხედრო სისტემებსა და ალგორითმებს შეუძლიათ შეამცირონ ადამიანთა მსხვერპლი რეალურ დროში და ზუსტი ინფორმაციის მიწოდებით, რომელსაც შეუძლია გაზარდოს განლაგებული სისტემების სიზუსტე, რათა დაარტყას მათ დანიშნულ სამიზნეებს. 

    თუ უფრო მეტი ხელოვნური ინტელექტის კონტროლირებადი სამხედრო იარაღის სისტემა განლაგდება მსოფლიოს თეატრებში, შესაძლოა ნაკლები ადამიანური პერსონალი განთავსდეს კონფლიქტის ზონებში, რაც შეამცირებს სამხედრო მსხვერპლს ომის თეატრებში. ხელოვნური ინტელექტის მქონე იარაღის შემქმნელებმა შეიძლება შეიცავდნენ კონტრზომებს, როგორიცაა მოკვლის გადამრთველები, რათა ეს სისტემები დაუყოვნებლივ გამორთოთ შეცდომის შემთხვევაში.  

    ხელოვნური ინტელექტის კონტროლირებადი იარაღის შედეგები 

    მთელ მსოფლიოში სამხედროების მიერ განლაგებული ავტონომიური იარაღის უფრო ფართო შედეგები შეიძლება მოიცავდეს:

    • ავტონომიური შეიარაღების განლაგება ფეხით ჯარისკაცების ადგილზე, მცირდება ომის ხარჯები და ჯარისკაცების მსხვერპლი.
    • სამხედრო ძალის უფრო დიდი გამოყენება შერჩეული ქვეყნების მიერ, რომლებსაც აქვთ მეტი ხელმისაწვდომობა ავტონომიურ ან მექანიზებულ აქტივებზე, რადგან ჯარების მსხვერპლის შემცირება ან აღმოფხვრა შეიძლება მინიმუმამდე დაიყვანოს ქვეყნის შიდა საზოგადოებრივი წინააღმდეგობა უცხო ქვეყნებში ომის წარმოებისთვის.
    • თავდაცვის ბიუჯეტის ესკალაცია ერებს შორის სამხედრო ხელოვნური ხელოვნური ინტელექტის უზენაესობისთვის, რადგან მომავალი ომები შეიძლება გადაწყდეს გადაწყვეტილების მიღების სისწრაფითა და დახვეწილი ხელოვნური ინტელექტის მიერ კონტროლირებადი იარაღისა და სამხედროების მიერ. 
    • ადამიანებსა და მანქანებს შორის პარტნიორობის გაზრდა, სადაც მონაცემები მყისიერად მიეწოდება ჯარისკაცებს, რაც მათ საშუალებას მისცემს რეალურ დროში შეცვალონ საბრძოლო ტაქტიკა და სტრატეგიები.
    • ქვეყნები სულ უფრო ხშირად იყენებენ თავიანთი კერძო ტექნოლოგიური სექტორის რესურსებს, რათა გააძლიერონ AI თავდაცვის შესაძლებლობები. 
    • ერთი ან მეტი გლობალური ხელშეკრულება, რომელიც გაეროში ავრცელებს, რომელიც კრძალავს ან ზღუდავს ავტონომიური იარაღის გამოყენებას. ასეთი პოლიტიკა, სავარაუდოდ, უგულებელყოფილი იქნება მსოფლიოს უმაღლესი სამხედროების მიერ.

    კითხვები კომენტარისთვის

    • როგორ ფიქრობთ, ალგორითმული ბრძოლები სარგებელს მოუტანს ჯარში ჩარიცხულ ადამიანებს?
    • გჯერათ, რომ საომარი მოქმედებისთვის შექმნილი ხელოვნური ინტელექტის სისტემები შეიძლება იყოს სანდო, ან უნდა შემცირდეს ან აიკრძალოს ისინი?

    Insight ცნობები

    შემდეგი პოპულარული და ინსტიტუციური ბმულები იყო მითითებული ამ ინფორმაციისათვის:

    წითელი ჯვრის საერთაშორისო კომიტეტი ნარატივის შეცვლა: არა იარაღი, არამედ ომის ტექნოლოგიები
    ინდოეთის თავდაცვის მიმოხილვა ალგორითმული ომი - მსოფლიო ელოდება