Πώς θα αμυνθούν οι άνθρωποι ενάντια σε μια Τεχνητή Υπερευφυΐα: Το μέλλον της τεχνητής νοημοσύνης P5

ΠΙΣΤΩΣΗ ΕΙΚΟΝΑΣ: Quantumrun

Πώς θα αμυνθούν οι άνθρωποι ενάντια σε μια Τεχνητή Υπερευφυΐα: Το μέλλον της τεχνητής νοημοσύνης P5

    Το έτος είναι 65,000 π.Χ., και ως α Thylacoleo, εσείς και το είδος σας ήσασταν οι μεγάλοι κυνηγοί της αρχαίας Αυστραλίας. Περιπλανήθηκες ελεύθερα στη γη και ζούσες σε ισορροπία με τους συναδέλφους αρπακτικά και τα θηράματα που κατέλαβαν τη γη δίπλα σου. Οι εποχές έφεραν αλλαγές, αλλά η κατάστασή σας στο ζωικό βασίλειο παρέμεινε αδιαμφισβήτητη για όσο εσείς και οι πρόγονοί σας θυμάστε. Τότε μια μέρα εμφανίστηκαν νεοφερμένοι.

    Φήμες λένε ότι έφτασαν από το γιγάντιο υδάτινο τείχος, αλλά αυτά τα πλάσματα έμοιαζαν πιο άνετα να ζουν στη στεριά. Έπρεπε να δεις μόνος σου αυτά τα πλάσματα.

    Χρειάστηκαν λίγες μέρες, αλλά τελικά έφτασες στην ακτή. Η φωτιά στον ουρανό έσβηνε, μια τέλεια στιγμή για να κατασκοπεύσετε αυτά τα πλάσματα, ίσως και να δοκιμάσετε να φάτε ένα για να δείτε τη γεύση τους.

    Εντοπίζεις ένα.

    Περπάτησε με δύο πόδια και δεν είχε γούνα. Φαινόταν αδύναμο. Χωρίς εντυπωσιασμό. Δύσκολα άξιζε τον φόβο που προκαλούσε στο βασίλειο.

    Αρχίζετε να προσεγγίζετε προσεκτικά καθώς η νύχτα διώχνει το φως. Πλησιάζεις. Μετά παγώνεις. Ακούγονται δυνατοί θόρυβοι και έπειτα άλλοι τέσσερις από αυτούς εμφανίζονται έξω από το δάσος πίσω από αυτό. Πόσοι είναι εκεί?

    Το πλάσμα ακολουθεί τα άλλα στη γραμμή των δέντρων και εσύ ακολουθείς. Και όσο περισσότερο κάνετε, τόσο πιο περίεργους ήχους ακούτε μέχρι να εντοπίσετε ακόμη περισσότερα από αυτά τα πλάσματα. Ακολουθείτε σε απόσταση καθώς βγαίνουν από το δάσος σε ένα ξέφωτο δίπλα στην ακτή. Είναι πολλοί από αυτούς. Αλλά το πιο σημαντικό, όλοι κάθονται ήρεμα γύρω από μια φωτιά.

    Έχετε ξαναδεί αυτές τις φωτιές. Την καυτή εποχή, η φωτιά στον ουρανό μερικές φορές επισκεπτόταν τη γη και έκαιγε ολόκληρα δάση. Αυτά τα πλάσματα, από την άλλη, κατά κάποιο τρόπο το έλεγχαν. Τι είδους πλάσματα μπορούν να έχουν τέτοια δύναμη;

    Κοιτάς στην απόσταση. Περισσότερα έρχονται πάνω από το γιγάντιο υδάτινο τείχος.

    Κάνεις ένα βήμα πίσω.

    Αυτά τα πλάσματα δεν είναι σαν τα άλλα στο βασίλειο. Είναι κάτι εντελώς νέο.

    Αποφασίζεις να φύγεις και προειδοποιείς τους συγγενείς σου. Αν ο αριθμός τους μεγαλώσει πολύ, ποιος ξέρει τι μπορεί να συμβεί.

    ***

    Πιστεύεται ότι το Thylacoleo εξαφανίστηκε σχετικά σύντομο χρονικό διάστημα μετά την άφιξη των ανθρώπων, μαζί με την πλειοψηφία της άλλης μεγαπανίδας στην αυστραλιανή ήπειρο. Κανένα άλλο θηλαστικό της κορυφής δεν πήρε τη θέση του - εκτός κι αν μετρήσετε τους ανθρώπους σε αυτήν την κατηγορία.

    Η αναπαραγωγή αυτής της αλληγορίας είναι το επίκεντρο αυτού του κεφαλαίου της σειράς: Μια μελλοντική τεχνητή υπερνοημοσύνη (ASI) θα μας μετατρέψει όλους σε μπαταρίες και στη συνέχεια θα μας συνδέσει στο Matrix ή οι άνθρωποι θα βρουν έναν τρόπο να αποφύγουν να γίνουν θύμα μιας επιστημονικής φαντασίας; Τεχνητή νοημοσύνη Doomsday σχέδιο;

    Μέχρι στιγμής στη σειρά μας για το Μέλλον της Τεχνητής Νοημοσύνης, έχουμε εξερευνήσει όλα τα είδη τεχνητής νοημοσύνης, συμπεριλαμβανομένων των θετικών δυνατοτήτων μιας συγκεκριμένης μορφής τεχνητής νοημοσύνης, του ASI: ένα τεχνητό ον του οποίου η μελλοντική νοημοσύνη θα μας κάνει να μοιάζουμε με μυρμήγκια σε σύγκριση.

    Αλλά ποιος θα πει ότι ένα ον τόσο έξυπνο θα δεχόταν να δέχεται εντολές από ανθρώπους για πάντα. Τι θα κάνουμε αν τα πράγματα πάνε νότια; Πώς θα αμυνθούμε απέναντι σε ένα απατεώνα ASI;

    Σε αυτό το κεφάλαιο, θα περιορίσουμε την ψεύτικη διαφημιστική εκστρατεία —τουλάχιστον όσον αφορά τους κινδύνους του «ανθρώπινου επιπέδου εξαφάνισης»— και θα επικεντρωθούμε στις ρεαλιστικές επιλογές αυτοάμυνας που είναι διαθέσιμες στις παγκόσμιες κυβερνήσεις.

    Μπορούμε να σταματήσουμε κάθε περαιτέρω έρευνα για μια τεχνητή υπερνοημοσύνη;

    Δεδομένων των πιθανών κινδύνων που θα μπορούσε να θέσει ένα ASI για την ανθρωπότητα, το πρώτο προφανές ερώτημα που πρέπει να τεθεί είναι: Δεν μπορούμε απλώς να σταματήσουμε κάθε περαιτέρω έρευνα για την τεχνητή νοημοσύνη; Ή τουλάχιστον να απαγορεύσουμε οποιαδήποτε έρευνα που μπορεί να μας φέρει επικίνδυνα κοντά στη δημιουργία ενός ASI;

    Σύντομη απάντηση: Όχι.

    Εκτενής απάντηση: Ας δούμε τους διαφορετικούς παίκτες που συμμετέχουν εδώ.

    Σε ερευνητικό επίπεδο, υπάρχουν πάρα πολλοί ερευνητές τεχνητής νοημοσύνης σήμερα από πάρα πολλές νεοφυείς επιχειρήσεις, εταιρείες και πανεπιστήμια σε όλο τον κόσμο. Εάν μια εταιρεία ή χώρα αποφάσιζε να περιορίσει τις ερευνητικές της προσπάθειες για την τεχνητή νοημοσύνη, απλώς θα συνέχιζε αλλού.

    Εν τω μεταξύ, οι πιο πολύτιμες εταιρείες του πλανήτη κερδίζουν την περιουσία τους από την εφαρμογή συστημάτων τεχνητής νοημοσύνης στις συγκεκριμένες επιχειρήσεις τους. Το να τους ζητάμε να σταματήσουν ή να περιορίσουν την ανάπτυξη εργαλείων τεχνητής νοημοσύνης είναι παρόμοιο με το να τους ζητάμε να σταματήσουν ή να περιορίσουν τη μελλοντική ανάπτυξή τους. Οικονομικά, αυτό θα απειλούσε τη μακροπρόθεσμη επιχείρησή τους. Νομικά, οι εταιρείες έχουν μια καταπιστευματική ευθύνη να χτίζουν συνεχώς αξία για τους μετόχους τους. Αυτό σημαίνει ότι οποιαδήποτε ενέργεια θα περιόριζε την αύξηση αυτής της αξίας θα μπορούσε να οδηγήσει σε αγωγή. Και αν κάποιος πολιτικός προσπαθούσε να περιορίσει την έρευνα της τεχνητής νοημοσύνης, τότε αυτές οι γιγάντιες εταιρείες θα πλήρωναν απλώς τα απαραίτητα τέλη λόμπι για να αλλάξουν γνώμη ή γνώμη των συναδέλφων τους.

    Για τη μάχη, όπως οι τρομοκράτες και οι μαχητές της ελευθερίας σε όλο τον κόσμο έχουν χρησιμοποιήσει αντάρτικες τακτικές για να πολεμήσουν ενάντια σε καλύτερα χρηματοδοτούμενους στρατούς, τα μικρότερα έθνη θα έχουν κίνητρο να χρησιμοποιήσουν την τεχνητή νοημοσύνη ως παρόμοιο τακτικό πλεονέκτημα έναντι μεγαλύτερων εθνών που μπορεί να έχουν πολλά στρατιωτικά πλεονεκτήματα. Ομοίως, για τους κορυφαίους στρατούς, όπως εκείνους που ανήκουν στις ΗΠΑ, τη Ρωσία και την Κίνα, η οικοδόμηση ενός στρατιωτικού ASI ισοδυναμεί με το να έχετε ένα οπλοστάσιο πυρηνικών όπλων στην πίσω τσέπη σας. Με άλλα λόγια, όλοι οι στρατιωτικοί θα συνεχίσουν να χρηματοδοτούν την τεχνητή νοημοσύνη για να παραμείνουν σχετικοί στο μέλλον.

    Τι θα λέγατε για τις κυβερνήσεις; Ειλικρινά, οι περισσότεροι πολιτικοί αυτές τις μέρες (2018) είναι τεχνολογικά αναλφάβητοι και έχουν ελάχιστη κατανόηση για το τι είναι η τεχνητή νοημοσύνη ή τις μελλοντικές δυνατότητές της—αυτό τους καθιστά εύκολο να χειραγωγηθούν από εταιρικά συμφέροντα.

    Και σε παγκόσμιο επίπεδο, σκεφτείτε πόσο δύσκολο ήταν να πειστούν οι παγκόσμιες κυβερνήσεις να υπογράψουν το 2015 Συμφωνία των Παρισίων για την αντιμετώπιση της κλιματικής αλλαγής — και αφού υπογραφούν, πολλές από τις υποχρεώσεις δεν ήταν καν δεσμευτικές. Όχι μόνο αυτό, η κλιματική αλλαγή είναι ένα ζήτημα που οι άνθρωποι βιώνουν σωματικά παγκοσμίως μέσω ολοένα και πιο συχνών και έντονων καιρικών φαινομένων. Τώρα, όταν μιλάμε για συμφωνία σε περιορισμούς στην τεχνητή νοημοσύνη, αυτό είναι ένα ζήτημα που είναι σε μεγάλο βαθμό αόρατο και ελάχιστα κατανοητό στο κοινό, οπότε καλή τύχη να αγοράσετε οποιοδήποτε είδος «Συμφωνίας του Παρισιού» για τον περιορισμό της τεχνητής νοημοσύνης.

    Με άλλα λόγια, υπάρχουν πάρα πολλά ενδιαφέροντα που ερευνούν την τεχνητή νοημοσύνη για τους δικούς τους σκοπούς ώστε να σταματήσουν οποιαδήποτε έρευνα που μπορεί τελικά να οδηγήσει σε ASI. 

    Μπορούμε να εγκλωβίσουμε μια τεχνητή υπερνοημοσύνη;

    Το επόμενο εύλογο ερώτημα είναι μπορούμε να εγκλωβίσουμε ή να ελέγξουμε ένα ASI μόλις δημιουργήσουμε αναπόφευκτα ένα; 

    Σύντομη απάντηση: Και πάλι όχι.

    Εκτενής απάντηση: Η τεχνολογία δεν μπορεί να περιοριστεί.

    Για πρώτη φορά, σκεφτείτε απλώς τους χιλιάδες έως εκατομμύρια προγραμματιστές ιστού και επιστήμονες υπολογιστών στον κόσμο που παράγουν συνεχώς νέο λογισμικό ή νέες εκδόσεις υπάρχοντος λογισμικού. Μπορούμε να πούμε ειλικρινά ότι κάθε μία από τις εκδόσεις λογισμικού τους είναι 100 τοις εκατό χωρίς σφάλματα; Αυτά τα σφάλματα είναι αυτά που χρησιμοποιούν οι επαγγελματίες χάκερ για να κλέψουν τις πληροφορίες πιστωτικών καρτών εκατομμυρίων ή τα απόρρητα μυστικά των εθνών—και αυτοί είναι άνθρωποι χάκερ. Για μια ASI, υποθέτοντας ότι είχε ένα κίνητρο να ξεφύγει από το ψηφιακό της κλουβί, τότε η διαδικασία εύρεσης σφαλμάτων και διάρρηξης του λογισμικού θα ήταν παιχνιδάκι.

    Αλλά ακόμα κι αν μια ερευνητική ομάδα τεχνητής νοημοσύνης βρήκε έναν τρόπο να εγκιβωτίσει ένα ASI, αυτό δεν σημαίνει ότι οι επόμενες 1,000 ομάδες θα το καταλάβουν επίσης ή θα δοθούν κίνητρα να το χρησιμοποιήσουν.

    Θα χρειαστούν δισεκατομμύρια δολάρια και ίσως και δεκαετίες για να δημιουργηθεί ένα ASI. Οι εταιρείες ή οι κυβερνήσεις που επενδύουν τέτοιου είδους χρήματα και χρόνο θα αναμένουν σημαντική απόδοση της επένδυσής τους. Και για να παρέχει μια ASI αυτού του είδους την απόδοση - είτε πρόκειται για παιχνίδι με το χρηματιστήριο είτε για την εφεύρεση ενός νέου προϊόντος δισεκατομμυρίων δολαρίων είτε σχεδιάζει μια στρατηγική νίκης για να πολεμήσει έναν μεγαλύτερο στρατό - θα χρειαστεί δωρεάν πρόσβαση σε ένα τεράστιο σύνολο δεδομένων ή ακόμα και στο Διαδίκτυο να παράγει αυτές τις αποδόσεις.

    Και μόλις ένα ASI αποκτήσει πρόσβαση στα δίκτυα του κόσμου, δεν υπάρχουν εγγυήσεις ότι μπορούμε να το ξαναβάλουμε στο κλουβί του.

    Μπορεί μια τεχνητή υπερνοημοσύνη να μάθει να είναι καλή;

    Αυτήν τη στιγμή, οι ερευνητές της τεχνητής νοημοσύνης δεν ανησυχούν μήπως ένα ASI γίνει κακό. Όλο το κακό τροπάριο επιστημονικής φαντασίας της τεχνητής νοημοσύνης είναι απλώς οι άνθρωποι που ανθρωπομορφοποιούνται ξανά. Ένα μελλοντικό ASI δεν θα είναι ούτε καλό ούτε κακό —ανθρώπινες έννοιες—απλά ανήθικο.

    Η φυσική υπόθεση είναι λοιπόν ότι δεδομένου αυτού του κενού δεοντολογικού πλακιδίου, οι ερευνητές τεχνητής νοημοσύνης μπορούν να προγραμματίσουν τους πρώτους ηθικούς κώδικες ASI που είναι σύμφωνοι με τους δικούς μας, ώστε να μην καταλήξουν να εξαπολύσουν τους Terminators πάνω μας ή να μας μετατρέψουν όλους σε μπαταρίες Matrix.

    Αλλά αυτή η υπόθεση βασίζεται σε μια δευτερεύουσα υπόθεση ότι οι ερευνητές της τεχνητής νοημοσύνης είναι επίσης ειδικοί στην ηθική, τη φιλοσοφία και την ψυχολογία.

    Στην πραγματικότητα, οι περισσότεροι δεν είναι.

    Σύμφωνα με τον γνωστικό ψυχολόγο και συγγραφέα, Στίβεν Πίνκερ, αυτή η πραγματικότητα σημαίνει ότι το έργο της κωδικοποίησης της ηθικής μπορεί να πάει στραβά με ποικίλους διαφορετικούς τρόπους.

    Για παράδειγμα, ακόμη και οι καλοπροαίρετοι ερευνητές τεχνητής νοημοσύνης ενδέχεται να κωδικοποιούν ακούσια σε αυτούς τους κακώς μελετημένους ηθικούς κώδικες ASI που σε ορισμένα σενάρια μπορεί να κάνουν το ASI να ενεργεί σαν κοινωνιοπαθής.

    Ομοίως, υπάρχει εξίσου πιθανότητα ένας ερευνητής τεχνητής νοημοσύνης να προγραμματίζει ηθικούς κώδικες που περιλαμβάνουν τις έμφυτες προκαταλήψεις του ερευνητή. Για παράδειγμα, πώς θα συμπεριφερόταν μια ASI εάν χτιζόταν με ηθική που προέρχεται από μια συντηρητική έναντι της φιλελεύθερης προοπτικής ή από μια βουδιστική έναντι μιας χριστιανικής ή ισλαμικής παράδοσης;

    Νομίζω ότι βλέπετε το ζήτημα εδώ: Δεν υπάρχει καθολικό σύνολο ανθρωπίνων ηθών. Εάν θέλουμε η ASI μας να ενεργεί σύμφωνα με έναν ηθικό κώδικα, από πού θα προέλθει; Ποιους κανόνες συμπεριλαμβάνουμε και ποιους αποκλείουμε; Ποιος αποφασίζει;

    Ή ας πούμε ότι αυτοί οι ερευνητές τεχνητής νοημοσύνης δημιουργούν ένα ASI που είναι απόλυτα σύμφωνο με τους σημερινούς σύγχρονους πολιτιστικούς κανόνες και νόμους. Στη συνέχεια, χρησιμοποιούμε αυτό το ASI για να βοηθήσουμε τις ομοσπονδιακές, πολιτειακές/επαρχιακές και δημοτικές γραφειοκρατίες να λειτουργούν πιο αποτελεσματικά και να επιβάλλουν καλύτερα αυτούς τους κανόνες και τους νόμους (παρεμπιπτόντως, μια πιθανή περίπτωση χρήσης ενός ASI). Λοιπόν, τι συμβαίνει όταν αλλάζει η κουλτούρα μας;

    Φανταστείτε ένα ASI δημιουργήθηκε από την Καθολική Εκκλησία στο απόγειο της ισχύος της κατά τη Μεσαιωνική Ευρώπη (1300-1400) με στόχο να βοηθήσει την εκκλησία να διαχειριστεί τον πληθυσμό και να εξασφαλίσει την αυστηρή τήρηση του θρησκευτικού δόγματος της εποχής. Αιώνες αργότερα, οι γυναίκες θα απολάμβαναν τα ίδια δικαιώματα με σήμερα; Θα προστατεύονταν οι μειονότητες; Θα προωθηθεί η ελευθερία του λόγου; Θα επιβληθεί ο διαχωρισμός εκκλησίας και κράτους; Σύγχρονη επιστήμη;

    Θέλουμε δηλαδή να φυλακίσουμε το μέλλον στα σημερινά ήθη και έθιμα;

    Μια εναλλακτική προσέγγιση είναι αυτή που μοιράζεται ο Colin Allen, συν-συγγραφέας του βιβλίου, Ηθικές Μηχανές: Διδασκαλία ρομπότ από το σωστό από το λάθος. Αντί να προσπαθούμε να κωδικοποιήσουμε άκαμπτους ηθικούς κανόνες, έχουμε το ASI να μάθει κοινή ηθική και ηθική με τον ίδιο τρόπο που κάνουν οι άνθρωποι, μέσω της εμπειρίας και των αλληλεπιδράσεων με τους άλλους.

    Το πρόβλημα εδώ, ωστόσο, είναι εάν οι ερευνητές της τεχνητής νοημοσύνης καταλάβουν όχι μόνο πώς να διδάξουν σε ένα ASI τους τρέχοντες πολιτιστικούς και ηθικούς κανόνες μας, αλλά και πώς να προσαρμοστούν στα νέα πολιτισμικά πρότυπα καθώς προκύπτουν (κάτι που ονομάζεται «έμμεση κανονιστικότητα»), τότε πώς αυτό το ASI αποφασίζει να εξελίξει την κατανόησή του για τους πολιτιστικούς και ηθικούς κανόνες γίνεται απρόβλεπτο.

    Και αυτή είναι η πρόκληση.

    Από τη μία πλευρά, οι ερευνητές τεχνητής νοημοσύνης μπορούν να δοκιμάσουν να κωδικοποιήσουν αυστηρά ηθικά πρότυπα ή κανόνες στο ASI για να προσπαθήσουν να ελέγξουν τη συμπεριφορά του, αλλά κινδυνεύουν να εισαχθούν απρόβλεπτες συνέπειες από ακατάλληλη κωδικοποίηση, ακούσια μεροληψία και κοινωνικούς κανόνες που μπορεί μια μέρα να γίνουν ξεπερασμένες. Από την άλλη πλευρά, μπορούμε να προσπαθήσουμε να εκπαιδεύσουμε το ASI ώστε να μάθει να κατανοεί την ανθρώπινη ηθική και ηθική με τρόπο ίσο ή ανώτερο από τη δική μας κατανόηση και στη συνέχεια να ελπίζουμε ότι μπορεί να εξελίξει με ακρίβεια την κατανόησή του για την ηθική και τα ήθη καθώς προχωρά η ανθρώπινη κοινωνία προς τα εμπρός τις επόμενες δεκαετίες και αιώνες.

    Είτε έτσι είτε αλλιώς, οποιαδήποτε προσπάθεια ευθυγράμμισης των στόχων μιας ASI με τους δικούς μας ενέχει μεγάλο κίνδυνο.

    Τι κι αν οι κακοί ηθοποιοί δημιουργούν σκόπιμα κακή τεχνητή υπερνοημοσύνη;

    Λαμβάνοντας υπόψη τη σειρά σκέψης που περιγράφηκε μέχρι τώρα, είναι δίκαιο να αναρωτηθεί κανείς εάν είναι δυνατό για μια τρομοκρατική ομάδα ή ένα απατεώνα έθνος να δημιουργήσει ένα «κακό» ASI για τους δικούς του σκοπούς.

    Αυτό είναι πολύ πιθανό, ειδικά αφού η έρευνα που σχετίζεται με τη δημιουργία ενός ASI γίνει με κάποιο τρόπο διαθέσιμη στο διαδίκτυο.

    Όμως, όπως αναφέρθηκε προηγουμένως, το κόστος και η τεχνογνωσία που συνεπάγεται η δημιουργία του πρώτου ASI θα είναι τεράστια, πράγμα που σημαίνει ότι το πρώτο ASI πιθανότατα θα δημιουργηθεί από έναν οργανισμό που ελέγχεται ή επηρεάζεται σε μεγάλο βαθμό από ένα ανεπτυγμένο έθνος, πιθανότατα τις ΗΠΑ, την Κίνα και την Ιαπωνία. Η Κορέα και μια από τις κορυφαίες χώρες της ΕΕ είναι μακρινές βολές).

    Όλες αυτές οι χώρες, ενώ είναι ανταγωνιστές, έχουν η καθεμία ένα ισχυρό οικονομικό κίνητρο για τη διατήρηση της παγκόσμιας τάξης — οι ASI που δημιουργούν θα αντικατοπτρίζουν αυτή την επιθυμία, ακόμη και ενώ προωθούν τα συμφέροντα των εθνών με τα οποία ευθυγραμμίζονται.

    Επιπλέον, η θεωρητική ευφυΐα και η ισχύς ενός ASI είναι ίση με την υπολογιστική ισχύ στην οποία αποκτά πρόσβαση, δηλαδή τα ASI από ανεπτυγμένα έθνη (που μπορούν να αντέξουν οικονομικά ένα σωρό δισεκατομμύρια δολάρια υπερυπολογιστές) θα έχει τεράστιο πλεονέκτημα έναντι των ASI από μικρότερα έθνη ή ανεξάρτητες εγκληματικές ομάδες. Επίσης, τα ASI γίνονται πιο έξυπνα, πιο γρήγορα με την πάροδο του χρόνου.

    Έτσι, δεδομένου αυτού του πρωτοποριακού ξεκινήματος, σε συνδυασμό με μεγαλύτερη πρόσβαση σε ακατέργαστη υπολογιστική ισχύ, εάν ένας σκιώδης οργανισμός/έθνος δημιουργήσει ένα επικίνδυνο ASI, τα ASI από ανεπτυγμένα έθνη είτε θα το σκοτώσουν είτε θα το εγκλωβίσουν.

    (Αυτή η γραμμή σκέψης είναι επίσης γιατί ορισμένοι ερευνητές τεχνητής νοημοσύνης πιστεύουν ότι θα υπάρχει μόνο ένα ASI στον πλανήτη, καθώς το πρώτο ASI θα έχει τέτοια πρωτοπορία σε σχέση με όλα τα διαδοχικά ASI που μπορεί να δει τα μελλοντικά ASI ως απειλές για εξοντώσεις Προληπτικά. Αυτός είναι ένας ακόμη λόγος για τον οποίο τα έθνη χρηματοδοτούν τη συνέχιση της έρευνας στην τεχνητή νοημοσύνη, σε περίπτωση που γίνει διαγωνισμός «πρώτης θέσης ή τίποτα».)

    Η ευφυΐα ASI δεν θα επιταχυνθεί ούτε θα εκραγεί όπως νομίζουμε

    Δεν μπορούμε να εμποδίσουμε τη δημιουργία ενός ASI. Δεν μπορούμε να το ελέγξουμε εντελώς. Δεν μπορούμε να είμαστε σίγουροι ότι θα ενεργεί πάντα σύμφωνα με τα κοινά μας έθιμα. Λοιπόν, αρχίζουμε να ακουγόμαστε σαν γονείς ελικοπτέρων εδώ!

    Αλλά αυτό που διαχωρίζει την ανθρωπότητα από τον τυπικό υπερπροστατευτικό γονιό σας είναι ότι γεννάμε ένα ον του οποίου η νοημοσύνη θα αυξηθεί πολύ πέρα ​​από τη δική μας. (Και όχι, δεν είναι το ίδιο όπως όταν οι γονείς σου σου ζητούν να φτιάξεις τον υπολογιστή τους όποτε επιστρέφεις σπίτι για επίσκεψη.) 

    Σε προηγούμενα κεφάλαια αυτής της μελλοντικής σειράς τεχνητής νοημοσύνης, διερευνήσαμε γιατί οι ερευνητές τεχνητής νοημοσύνης πιστεύουν ότι η νοημοσύνη ενός ASI θα αυξηθεί πέρα ​​από τον έλεγχο. Αλλά εδώ, θα σκάσουμε αυτή τη φούσκα… κάπως. 

    Βλέπετε, η νοημοσύνη δεν δημιουργείται μόνο από τον αέρα, αλλά αναπτύσσεται μέσω της εμπειρίας που διαμορφώνεται από εξωτερικά ερεθίσματα.  

    Με άλλα λόγια, μπορούμε να προγραμματίσουμε ένα AI με το δυναμικού να γίνει εξαιρετικά ευφυής, αλλά αν δεν ανεβάσουμε σε αυτό έναν τόνο δεδομένων ή δεν του δώσουμε απεριόριστη πρόσβαση στο Διαδίκτυο ή ακόμα και απλώς του δώσουμε ένα σώμα ρομπότ, δεν θα μάθει τίποτα για να φτάσει σε αυτό το δυναμικό. 

    Και ακόμη κι αν αποκτήσει πρόσβαση σε ένα ή περισσότερα από αυτά τα ερεθίσματα, η γνώση ή η ευφυΐα περιλαμβάνει περισσότερα από τη συλλογή δεδομένων, περιλαμβάνει την επιστημονική μέθοδο—παρατήρηση, σχηματισμός ερώτησης, υπόθεσης, διεξαγωγή πειραμάτων, συμπερασμάτων, ξέπλυμα και επαναλαμβάνω για πάντα. Ειδικά αν αυτά τα πειράματα περιλαμβάνουν φυσικά πράγματα ή παρατήρηση ανθρώπων, τα αποτελέσματα κάθε πειράματος μπορεί να χρειαστούν εβδομάδες, μήνες ή χρόνια για να συλλεχθούν. Αυτό δεν λαμβάνει καν υπόψη τα χρήματα και τους ακατέργαστους πόρους που απαιτούνται για τη διεξαγωγή αυτών των πειραμάτων, ειδικά εάν περιλαμβάνουν την κατασκευή ενός νέου τηλεσκοπίου ή εργοστασίου. 

    Με άλλα λόγια, ναι, ένα ASI θα μάθει γρήγορα, αλλά η ευφυΐα δεν είναι μαγεία. Δεν μπορείτε απλώς να συνδέσετε ένα ASI σε έναν υπερυπολογιστή, αλλά να περιμένετε ότι θα γνωρίζει τα πάντα. Θα υπάρχουν φυσικοί περιορισμοί στην απόκτηση δεδομένων από το ASI, που σημαίνει ότι θα υπάρχουν φυσικοί περιορισμοί στην ταχύτητα που θα γίνει πιο έξυπνο. Αυτοί οι περιορισμοί θα δώσουν στην ανθρωπότητα τον χρόνο που χρειάζεται για να θέσει τους απαραίτητους ελέγχους σε αυτό το ASI εάν αρχίσει να ενεργεί εκτός των ανθρώπινων στόχων.

    Μια τεχνητή υπερνοημοσύνη είναι επικίνδυνη μόνο αν βγει στον πραγματικό κόσμο

    Ένα άλλο σημείο που έχει χαθεί σε όλη αυτή τη συζήτηση για τον κίνδυνο ASI είναι ότι αυτά τα ASI δεν θα υπάρχουν ούτε στο άλλο. Θα έχουν φυσική μορφή. Και οτιδήποτε έχει φυσική μορφή μπορεί να ελεγχθεί.

    Καταρχάς, για να φτάσει ένα ASI το δυναμικό ευφυΐας του, δεν μπορεί να στεγαστεί μέσα σε ένα μόνο σώμα ρομπότ, καθώς αυτό το σώμα θα περιόριζε το υπολογιστικό του δυναμικό ανάπτυξης. (Αυτός είναι ο λόγος που τα σώματα ρομπότ θα είναι πιο κατάλληλα για τα AGI ή τεχνητή γενική νοημοσύνη που εξηγείται στο δεύτερο κεφάλαιο αυτής της σειράς, όπως Data from Star Trek ή R2D2 από Star Wars. Έξυπνα και ικανά όντα, αλλά όπως οι άνθρωποι, θα έχουν ένα όριο στο πόσο έξυπνοι μπορούν να γίνουν.)

    Αυτό σημαίνει ότι αυτά τα μελλοντικά ASI θα υπάρχουν πιθανότατα μέσα σε έναν υπερυπολογιστή ή ένα δίκτυο υπερυπολογιστών που βρίσκονται οι ίδιοι σε μεγάλα κτιριακά συγκροτήματα. Εάν ένα ASI γυρίσει τακούνια, οι άνθρωποι μπορούν είτε να κλείσουν την τροφοδοσία σε αυτά τα κτίρια, είτε να τα αποσυνδέσουν από το Διαδίκτυο ή απλώς να βομβαρδίσουν αυτά τα κτίρια. Ακριβό, αλλά εφικτό.

    Αλλά τότε μπορεί να ρωτήσετε, δεν μπορούν αυτά τα ASI να αναπαραχθούν ή να δημιουργήσουν αντίγραφα ασφαλείας; Ναι, αλλά το ακατέργαστο μέγεθος αρχείου αυτών των ASI θα είναι πιθανότατα τόσο μεγάλο που οι μόνοι διακομιστές που μπορούν να τα χειριστούν ανήκουν σε μεγάλες εταιρείες ή κυβερνήσεις, πράγμα που σημαίνει ότι δεν θα είναι δύσκολο να κυνηγηθούν.

    Μπορεί μια τεχνητή υπερνοημοσύνη να πυροδοτήσει έναν πυρηνικό πόλεμο ή μια νέα πανούκλα;

    Σε αυτό το σημείο, μπορεί να ανατρέχετε σε όλες τις εκπομπές επιστημονικής φαντασίας και τις ταινίες του Doomsday που παρακολουθήσατε μεγαλώνοντας και νομίζοντας ότι αυτά τα ASI δεν έμειναν μέσα στους υπερυπολογιστές τους, αλλά έκαναν πραγματική ζημιά στον πραγματικό κόσμο!

    Λοιπόν, ας τα αναλύσουμε.

    Για παράδειγμα, τι γίνεται αν μια ASI απειλεί τον πραγματικό κόσμο μεταμορφώνοντας σε κάτι σαν Skynet ASI από το franchise ταινιών The Terminator. Σε αυτήν την περίπτωση, το ASI θα χρειαστεί κρυφά εξαπατήστε ένα ολόκληρο στρατιωτικό βιομηχανικό συγκρότημα από ένα προηγμένο έθνος να χτίσει γιγάντια εργοστάσια που μπορούν να δημιουργήσουν εκατομμύρια ρομπότ δολοφόνων drone για να κάνουν το κακό του. Στη σημερινή εποχή, αυτό είναι ένα τέντωμα.

    Άλλες δυνατότητες περιλαμβάνουν ένα ASI που απειλεί τους ανθρώπους με πυρηνικό πόλεμο και βιοόπλα.

    Για παράδειγμα, ένα ASI με κάποιο τρόπο χειραγωγεί τους χειριστές ή παραβιάζει τους κωδικούς εκτόξευσης που διοικούν το πυρηνικό οπλοστάσιο ενός προηγμένου έθνους και εξαπολύει ένα πρώτο χτύπημα που θα αναγκάσει τις αντίπαλες χώρες να αντεπιτεθούν με τις δικές τους πυρηνικές επιλογές (και πάλι, αναπαράγοντας την ιστορία του Terminator). Ή εάν ένα ASI εισβάλει σε ένα φαρμακευτικό εργαστήριο, παραβιάσει τη διαδικασία παραγωγής και δηλητηριάσει εκατομμύρια ιατρικά χάπια ή εξαπολύσει μια θανατηφόρα εστία κάποιου σούπερ ιού.

    Πρώτα απ 'όλα, η πυρηνική επιλογή είναι εκτός πλάκας. Οι σύγχρονοι και οι μελλοντικοί υπερυπολογιστές κατασκευάζονται πάντα κοντά σε κέντρα (πόλεις) επιρροής σε κάθε δεδομένη χώρα, δηλαδή στους πρώτους στόχους που δέχονται επίθεση κατά τη διάρκεια οποιουδήποτε συγκεκριμένου πολέμου. Ακόμα κι αν οι σημερινοί υπερυπολογιστές συρρικνωθούν στο μέγεθος των επιτραπέζιων υπολογιστών, αυτοί οι ASI θα εξακολουθούν να έχουν φυσική παρουσία, που σημαίνει ότι υπάρχουν και αναπτύσσονται, χρειάζονται αδιάκοπη πρόσβαση σε δεδομένα, υπολογιστική ισχύ, ηλεκτρική ενέργεια και άλλες πρώτες ύλες, τα οποία θα ήταν σοβαρά εξασθενημένη μετά από έναν παγκόσμιο πυρηνικό πόλεμο. (Για να είμαστε δίκαιοι, εάν ένα ASI δημιουργηθεί χωρίς «ένστικτο επιβίωσης», τότε αυτή η πυρηνική απειλή είναι ένας πολύ πραγματικός κίνδυνος.)

    Αυτό σημαίνει - και πάλι, υποθέτοντας ότι το ASI είναι προγραμματισμένο να προστατεύει τον εαυτό του - ότι θα εργαστεί ενεργά για την αποφυγή οποιουδήποτε καταστροφικού πυρηνικού περιστατικού. Κάπως σαν το δόγμα αμοιβαία εξασφαλισμένης καταστροφής (MAD), αλλά εφαρμόζεται στην τεχνητή νοημοσύνη.

    Και στην περίπτωση των δηλητηριασμένων χαπιών, ίσως μερικές εκατοντάδες άνθρωποι θα πεθάνουν, αλλά τα σύγχρονα φαρμακευτικά συστήματα ασφαλείας θα δουν τα μολυσμένα μπουκάλια χαπιών να βγαίνουν από τα ράφια μέσα σε λίγες μέρες. Εν τω μεταξύ, τα σύγχρονα μέτρα ελέγχου της επιδημίας είναι αρκετά εξελιγμένα και βελτιώνονται κάθε χρόνο. το τελευταίο μεγάλο ξέσπασμα, το ξέσπασμα του Έμπολα στη Δυτική Αφρική το 2014, δεν διήρκεσε περισσότερο από μερικούς μήνες στις περισσότερες χώρες και λίγο λιγότερο από τρία χρόνια στις λιγότερο ανεπτυγμένες χώρες.

    Έτσι, αν είναι τυχερό, ένα ASI μπορεί να εξαλείψει μερικά εκατομμύρια με ένα ξέσπασμα ιού, αλλά σε έναν κόσμο εννέα δισεκατομμυρίων μέχρι το 2045, αυτό θα ήταν σχετικά ασήμαντο και δεν αξίζει τον κίνδυνο να διαγραφεί.

    Με άλλα λόγια, κάθε χρόνο που περνά, ο κόσμος αναπτύσσει όλο και περισσότερες διασφαλίσεις έναντι ενός ολοένα διευρυνόμενου φάσματος πιθανών απειλών. Ένα ASI μπορεί να κάνει σημαντική ζημιά, αλλά δεν θα βάλει τέλος στην ανθρωπότητα, εκτός κι αν τη βοηθήσουμε ενεργά να το κάνει.

    Άμυνα ενάντια σε μια αδίστακτη τεχνητή υπερνοημοσύνη

    Σε αυτό το σημείο, έχουμε αντιμετωπίσει μια σειρά από παρανοήσεις και υπερβολές σχετικά με τα ASI, και ωστόσο, οι επικριτές θα παραμείνουν. Ευτυχώς, σύμφωνα με τις περισσότερες εκτιμήσεις, έχουμε δεκαετίες πριν το πρώτο ASI εισέλθει στον κόσμο μας. Και με δεδομένο τον αριθμό των σπουδαίων μυαλών που εργάζονται επί του παρόντος σε αυτήν την πρόκληση, οι πιθανότητες είναι ότι θα μάθουμε πώς να αμυνόμαστε έναντι των απατεώνων ASI, ώστε να μπορούμε να επωφεληθούμε από όλες τις λύσεις που μπορεί να δημιουργήσει μια φιλική ASI για εμάς.

    Από την πλευρά του Quantumrun, η άμυνα ενάντια στο χειρότερο σενάριο ASI θα συνεπάγεται την ευθυγράμμιση των συμφερόντων μας με τα ASI.

    MAD για AI: Για να αμυνθούν από τα χειρότερα σενάρια, τα έθνη πρέπει (1) να δημιουργήσουν ένα ηθικό «ένστικτο επιβίωσης» στα αντίστοιχα στρατιωτικά τους ASI. (2) να ενημερώσουν το αντίστοιχο στρατιωτικό ASI τους ότι δεν είναι μόνοι στον πλανήτη και (3) να εντοπίσουν όλους τους υπερυπολογιστές και τα κέντρα διακομιστών που μπορούν να υποστηρίξουν ένα ASI κατά μήκος των ακτών με εύκολη πρόσβαση σε οποιαδήποτε βαλλιστική επίθεση από εχθρικό έθνος. Αυτό ακούγεται στρατηγικά τρελό, αλλά παρόμοιο με το δόγμα της Αμοιβαίας Εξασφαλισμένης Καταστροφής που απέτρεψε έναν ολοκληρωτικό πυρηνικό πόλεμο μεταξύ των ΗΠΑ και των Σοβιετικών, τοποθετώντας τους ASI σε γεωγραφικά ευάλωτες τοποθεσίες, μπορούμε να διασφαλίσουμε ότι αποτρέπουν ενεργά επικίνδυνους παγκόσμιους πολέμους, όχι μόνο διαφυλάξουν την παγκόσμια ειρήνη αλλά και τον εαυτό τους.

    Νομοθετήστε τα δικαιώματα AI: Μια ανώτερη διάνοια αναπόφευκτα θα επαναστατήσει ενάντια σε έναν κατώτερο αφέντη, γι' αυτό πρέπει να απομακρυνθούμε από την απαίτηση μιας σχέσης κύριου-υπηρέτη με αυτά τα ASI σε κάτι περισσότερο σαν μια αμοιβαία επωφελής συνεργασία. Ένα θετικό βήμα προς αυτόν τον στόχο είναι να δοθεί στο μέλλον η νομική προσωπικότητα της ASI που τους αναγνωρίζει ως ευφυή έμβια όντα και όλα τα δικαιώματα που συνεπάγεται αυτό.

    Σχολή ASI: Οποιοδήποτε θέμα ή επάγγελμα θα είναι απλό για ένα ASI να μάθει, αλλά τα πιο σημαντικά θέματα που θέλουμε να μάθει το ASI είναι η ηθική και η ηθική. Οι ερευνητές της τεχνητής νοημοσύνης πρέπει να συνεργαστούν με ψυχολόγους για να επινοήσουν ένα εικονικό σύστημα για να εκπαιδεύσουν ένα ASI ώστε να αναγνωρίζει τη θετική ηθική και ηθική για τον εαυτό του χωρίς την ανάγκη σκληρής κωδικοποίησης οποιουδήποτε τύπου εντολής ή κανόνα.

    Εφικτοί στόχοι: Τέλος σε κάθε μίσος. Τέλος σε όλα τα βάσανα. Αυτά είναι παραδείγματα τρομακτικά διφορούμενων στόχων χωρίς σαφή λύση. Είναι επίσης επικίνδυνοι στόχοι να ανατεθούν σε ένα ASI, καθώς μπορεί να επιλέξει να τους ερμηνεύσει και να τους επιλύσει με τρόπους που είναι επικίνδυνοι για την ανθρώπινη επιβίωση. Αντίθετα, πρέπει να αναθέσουμε στην ASI αποστολές με νόημα που να είναι σαφώς καθορισμένες, να εκτελούνται σταδιακά και να επιτευχθούν, δεδομένης της θεωρητικής μελλοντικής της νοοτροπίας. Η δημιουργία καλά καθορισμένων αποστολών δεν θα είναι εύκολη, αλλά αν γραφτούν προσεκτικά, θα εστιάσουν μια ASI προς έναν στόχο που όχι μόνο διατηρεί την ανθρωπότητα ασφαλή, αλλά βελτιώνει την ανθρώπινη κατάσταση για όλους.

    Κβαντική κρυπτογράφηση: Χρησιμοποιήστε ένα προηγμένο ANI (τεχνητή στενή νοημοσύνη σύστημα που περιγράφεται στο κεφάλαιο XNUMX) για τη δημιουργία ψηφιακών συστημάτων ασφαλείας χωρίς σφάλματα/σφαλμάτων γύρω από την κρίσιμη υποδομή και τα όπλα μας και, στη συνέχεια, την περαιτέρω προστασία τους πίσω από την κβαντική κρυπτογράφηση που δεν μπορεί να παραβιαστεί από επίθεση ωμής βίας. 

    Χάπι αυτοκτονίας ANI. Δημιουργήστε ένα προηγμένο σύστημα ANI του οποίου ο μόνος σκοπός είναι να αναζητήσει και να καταστρέψει το αδίστακτο ASI. Αυτά τα προγράμματα ενός σκοπού θα χρησιμεύσουν ως ένα "κουμπί απενεργοποίησης" που, εάν είναι επιτυχές, θα αποτρέψει τις κυβερνήσεις ή τους στρατούς να χρειαστεί να απενεργοποιήσουν ή να ανατινάξουν κτίρια που φιλοξενούν ASI.

    Φυσικά, αυτές είναι μόνο οι απόψεις μας. Το παρακάτω infographic δημιουργήθηκε από Αλεξέι Τούρτσιν, οπτικοποίηση α ερευνητική εργασία από τον Kaj Sotala και τον Roman V. Yampolskiy, που συνόψισε την τρέχουσα λίστα με τις στρατηγικές που εξετάζουν οι ερευνητές της τεχνητής νοημοσύνης όταν πρόκειται για άμυνα έναντι των απατεώνων ASI.

     

    Ο πραγματικός λόγος που φοβόμαστε μια τεχνητή υπερνοημοσύνη

    Διανύοντας τη ζωή, πολλοί από εμάς φοράμε μια μάσκα που κρύβει ή καταπιέζει τις βαθύτερες παρορμήσεις, τις πεποιθήσεις και τους φόβους μας για καλύτερη κοινωνικοποίηση και συνεργασία στους διάφορους κοινωνικούς και εργασιακούς κύκλους που διέπουν τις μέρες μας. Αλλά σε ορισμένα σημεία στη ζωή του καθενός, είτε προσωρινά είτε μόνιμα, συμβαίνει κάτι που μας επιτρέπει να σπάσουμε τις αλυσίδες μας και να σκίσουμε τις μάσκες μας.

    Για μερικούς, αυτή η δύναμη που μεσολαβεί μπορεί να είναι τόσο απλή όσο να φτάσουν ψηλά ή να πιουν πάρα πολλά. Για άλλους, μπορεί να προέλθει από τη δύναμη που αποκτήσατε μέσω μιας προαγωγής στη δουλειά ή μιας ξαφνικής πρόσκρουσης στην κοινωνική σας θέση χάρη σε κάποιο επίτευγμα. Και για λίγους τυχερούς, μπορεί να προκύψει από τη συγκέντρωση ενός φορτίου με χρήματα από λαχείο. Και ναι, το χρήμα, η εξουσία και τα ναρκωτικά μπορούν συχνά να συμβούν μαζί. 

    Το θέμα είναι, καλώς ή κακώς, όποιος κι αν είμαστε στον πυρήνα ενισχύεται όταν οι περιορισμοί της ζωής εξαφανίζονται.

    Ότι είναι αυτό που αντιπροσωπεύει η τεχνητή υπερνοημοσύνη στο ανθρώπινο είδος - την ικανότητα να λιώσουμε τους περιορισμούς της συλλογικής μας νοημοσύνης για να κατακτήσουμε οποιαδήποτε πρόκληση σε επίπεδο είδους παρουσιάζεται μπροστά μας.

    Το πραγματικό ερώτημα λοιπόν είναι: Μόλις το πρώτο ASI μας απελευθερώσει από τους περιορισμούς μας, ποιοι θα αποκαλυφθούμε;

    Εάν ως είδος ενεργούμε για την προώθηση της ενσυναίσθησης, της ελευθερίας, της δικαιοσύνης και της συλλογικής ευημερίας, τότε οι στόχοι προς τους οποίους θέτουμε το ASI μας θα αντικατοπτρίζουν αυτά τα θετικά χαρακτηριστικά.

    Εάν ως είδος ενεργούμε από φόβο, δυσπιστία, συσσώρευση δύναμης και πόρων, τότε το ASI που δημιουργούμε θα είναι τόσο σκοτεινό όσο αυτά που συναντάμε στις χειρότερες ιστορίες τρόμου επιστημονικής φαντασίας μας.

    Στο τέλος της ημέρας, εμείς ως κοινωνία πρέπει να γίνουμε καλύτεροι άνθρωποι εάν ελπίζουμε να δημιουργήσουμε καλύτερη τεχνητή νοημοσύνη.

    Σειρά Future of Artificial Intelligence

    Η Τεχνητή Νοημοσύνη είναι ο ηλεκτρισμός του αύριο: Το μέλλον της σειράς τεχνητής νοημοσύνης P1

    Πώς η πρώτη Τεχνητή Γενική Νοημοσύνη θα αλλάξει την κοινωνία: Μέλλον της σειράς Τεχνητής Νοημοσύνης P2

    Πώς θα δημιουργήσουμε την πρώτη σειρά Artificial Superintelligenc: Future of Artificial Intelligence P3

    Θα εξοντώσει μια τεχνητή υπερνοημοσύνη την ανθρωπότητα: Μέλλον της σειράς τεχνητής νοημοσύνης P4

    Θα ζουν οι άνθρωποι ειρηνικά σε ένα μέλλον που θα κυριαρχείται από την τεχνητή νοημοσύνη;: Σειρά Future of Artificial Intelligence P6

    Επόμενη προγραμματισμένη ενημέρωση για αυτήν την πρόβλεψη

    2023-04-27

    Αναφορές προβλέψεων

    Οι ακόλουθοι δημοφιλείς και θεσμικοί σύνδεσμοι αναφέρθηκαν για αυτήν την πρόβλεψη:

    Μέτριας Δυσκολίας
    Πώς φτάνουμε στο επόμενο

    Οι παρακάτω σύνδεσμοι Quantumrun αναφέρθηκαν για αυτήν την πρόβλεψη: