Αλγοριθμική μάχη: Είναι τα ρομπότ δολοφόνοι το νέο πρόσωπο του σύγχρονου πολέμου;

ΠΙΣΤΩΣΗ ΕΙΚΟΝΑΣ:
Πιστωτικά Εικόνα
iStock

Αλγοριθμική μάχη: Είναι τα ρομπότ δολοφόνοι το νέο πρόσωπο του σύγχρονου πολέμου;

Αλγοριθμική μάχη: Είναι τα ρομπότ δολοφόνοι το νέο πρόσωπο του σύγχρονου πολέμου;

Κείμενο υπότιτλου
Τα σημερινά όπλα και συστήματα πολέμου ενδέχεται σύντομα να εξελιχθούν από απλό εξοπλισμό σε αυτόνομες οντότητες.
    • Συγγραφέας:
    • όνομα συγγραφέα
      Quantumrun Foresight
    • Ιανουάριος 10, 2023

    Οι χώρες συνεχίζουν να ερευνούν συστήματα πολέμου τεχνητής νοημοσύνης (AI) παρόλο που έχει αυξηθεί η αντίσταση στην κοινωνία των πολιτών ενάντια στα φονικά, αυτόνομα όπλα. 

    Αλγοριθμικό πλαίσιο μάχης

    Οι μηχανές χρησιμοποιούν αλγόριθμους (ένα σύνολο μαθηματικών οδηγιών) για να λύσουν προβλήματα που μιμούνται την ανθρώπινη νοημοσύνη. Η αλγοριθμική μάχη περιλαμβάνει την ανάπτυξη συστημάτων που τροφοδοτούνται από AI που μπορούν να διαχειριστούν αυτόνομα όπλα, τακτικές, ακόμη και ολόκληρες στρατιωτικές επιχειρήσεις. Οι μηχανές που ελέγχουν αυτόνομα οπλικά συστήματα έχουν ανοίξει νέες συζητήσεις σχετικά με το ρόλο που πρέπει να διαδραματίζουν οι αυτόνομες μηχανές στον πόλεμο και τις ηθικές του επιπτώσεις. 

    Σύμφωνα με το Διεθνές Ανθρωπιστικό Δίκαιο, κάθε μηχάνημα (είτε είναι οπλισμένο είτε όχι) θα πρέπει να υποβάλλεται σε αυστηρούς ελέγχους προτού αναπτυχθεί, ιδιαίτερα εάν προορίζεται να προκαλέσει βλάβη σε άτομα ή κτίρια. Αυτό επεκτείνεται στα συστήματα τεχνητής νοημοσύνης που αναπτύσσονται για να γίνουν τελικά αυτομάθητα και αυτοδιορθωτικά, γεγονός που μπορεί να οδηγήσει σε αυτές τις μηχανές να αντικαταστήσουν τα ελεγχόμενα από τον άνθρωπο οπλικά συστήματα σε στρατιωτικές επιχειρήσεις.

    Το 2017, η Google έλαβε έντονες αντιδράσεις από τους υπαλλήλους της όταν ανακαλύφθηκε ότι η εταιρεία συνεργαζόταν με το Υπουργείο Άμυνας των Ηνωμένων Πολιτειών για την ανάπτυξη συστημάτων μηχανικής μάθησης που θα χρησιμοποιηθούν στον στρατό. Οι ακτιβιστές ανησυχούσαν ότι η δημιουργία στρατιωτικών ρομπότ που θα μπορούσαν να εξελιχθούν στον εαυτό τους μπορεί να παραβιάσει τις πολιτικές ελευθερίες ή να οδηγήσει σε ψευδή αναγνώριση στόχων. Η χρήση της τεχνολογίας αναγνώρισης προσώπου στον στρατό έχει αυξηθεί (ήδη από το 2019) για τη δημιουργία βάσης δεδομένων με στοχευμένους τρομοκράτες ή άτομα ενδιαφέροντος. Οι επικριτές έχουν εκφράσει ανησυχίες ότι η λήψη αποφάσεων με γνώμονα την τεχνητή νοημοσύνη μπορεί να οδηγήσει σε καταστροφικά αποτελέσματα εάν τεθεί σε κίνδυνο η ανθρώπινη παρέμβαση. Ωστόσο, τα περισσότερα μέλη των Ηνωμένων Εθνών τάσσονται υπέρ της απαγόρευσης των θανατηφόρων αυτόνομων οπλικών συστημάτων (LAWS) λόγω της πιθανότητας για αυτές τις οντότητες να γίνουν απατεώνες.

    Αποδιοργανωτικός αντίκτυπος

    Η πτώση των αριθμών στρατολόγησης στρατιωτικών που βιώνουν πολλά δυτικά έθνη - μια τάση που εμβαθυνόταν κατά τη διάρκεια της δεκαετίας του 2010 - αποτελούν βασικό παράγοντα που συμβάλλει στην υιοθέτηση αυτοματοποιημένων στρατιωτικών λύσεων. Ένας άλλος παράγοντας που καθοδηγεί την υιοθέτηση αυτών των τεχνολογιών είναι η δυνατότητά τους να εξορθολογίζουν και να αυτοματοποιούν τις επιχειρήσεις στο πεδίο της μάχης, οδηγώντας σε αυξημένη αποτελεσματικότητα μαχών και χαμηλότερο λειτουργικό κόστος. Ορισμένοι ενδιαφερόμενοι της στρατιωτικής βιομηχανίας ισχυρίστηκαν επίσης ότι στρατιωτικά συστήματα και αλγόριθμοι που ελέγχονται από τεχνητή νοημοσύνη μπορούν να μειώσουν τις ανθρώπινες απώλειες παρέχοντας σε πραγματικό χρόνο και ακριβείς πληροφορίες που μπορούν να αυξήσουν την ακρίβεια των αναπτυσσόμενων συστημάτων ώστε να χτυπήσουν τους στόχους τους. 

    Εάν αναπτυχθούν περισσότερα στρατιωτικά οπλικά συστήματα ελεγχόμενα από την τεχνητή νοημοσύνη στους κινηματογράφους σε όλο τον κόσμο, μπορεί να αναπτυχθεί λιγότερο ανθρώπινο προσωπικό σε ζώνες συγκρούσεων, μειώνοντας τις στρατιωτικές απώλειες σε θέατρα πολέμου. Οι κατασκευαστές όπλων που βασίζονται σε τεχνητή νοημοσύνη μπορεί να περιλαμβάνουν αντίμετρα όπως διακόπτες kill, έτσι ώστε αυτά τα συστήματα να μπορούν να απενεργοποιηθούν αμέσως εάν παρουσιαστεί σφάλμα.  

    Συνέπειες των όπλων που ελέγχονται από AI 

    Οι ευρύτερες επιπτώσεις των αυτόνομων όπλων που αναπτύσσονται από στρατούς παγκοσμίως μπορεί να περιλαμβάνουν:

    • Αυτόνομα όπλα που αναπτύσσονται στη θέση των πεζών, μειώνοντας το κόστος πολέμου και τις απώλειες στρατιωτών.
    • Η μεγαλύτερη εφαρμογή στρατιωτικής δύναμης από επιλεγμένα έθνη με μεγαλύτερη πρόσβαση σε αυτόνομα ή μηχανοποιημένα μέσα, καθώς η μείωση ή η εξάλειψη των απωλειών των στρατευμάτων μπορεί να ελαχιστοποιήσει την εγχώρια δημόσια αντίσταση μιας χώρας στη διεξαγωγή πολέμου σε ξένες χώρες.
    • Μια κλιμάκωση των αμυντικών προϋπολογισμών μεταξύ των εθνών για στρατιωτική υπεροχή της τεχνητής νοημοσύνης καθώς οι μελλοντικοί πόλεμοι μπορεί να αποφασιστεί από την ταχύτητα λήψης αποφάσεων και την πολυπλοκότητα των μελλοντικών όπλων και στρατευμάτων που ελέγχονται από την τεχνητή νοημοσύνη. 
    • Αυξάνεται η συνεργασία μεταξύ ανθρώπων και μηχανών, όπου δεδομένα θα παρέχονται άμεσα σε ανθρώπους στρατιώτες, επιτρέποντάς τους να προσαρμόζουν τις τακτικές και τις στρατηγικές μάχης σε πραγματικό χρόνο.
    • Οι χώρες αξιοποιούν ολοένα και περισσότερο τους πόρους των ιδιωτικών τους τεχνολογικών τομέων για να ενισχύσουν τις αμυντικές τους ικανότητες τεχνητής νοημοσύνης. 
    • Μία ή περισσότερες παγκόσμιες συνθήκες που προωθούνται στα Ηνωμένα Έθνη που απαγορεύουν ή περιορίζουν τη χρήση αυτόνομων όπλων. Τέτοιες πολιτικές πιθανότατα θα αγνοηθούν από τους κορυφαίους στρατούς του κόσμου.

    Ερωτήσεις για σχολιασμό

    • Πιστεύετε ότι η αλγοριθμική μάχη θα ωφελήσει τους ανθρώπους που κατατάσσονται στον στρατό;
    • Πιστεύετε ότι τα συστήματα τεχνητής νοημοσύνης που έχουν σχεδιαστεί για πόλεμο μπορούν να είναι αξιόπιστα ή πρέπει να περιοριστούν ή να απαγορευτούν εντελώς;

    Αναφορές Insight

    Οι ακόλουθοι δημοφιλείς και θεσμικοί σύνδεσμοι αναφέρθηκαν για αυτήν τη γνώση:

    Διεθνής Επιτροπή του Ερυθρού Σταυρού Αλλαγή της αφήγησης: όχι όπλα, αλλά τεχνολογίες πολέμου