Μια Τεχνητή Υπερνοημοσύνη θα εξοντώσει την ανθρωπότητα; Το μέλλον της τεχνητής νοημοσύνης P4

ΠΙΣΤΩΣΗ ΕΙΚΟΝΑΣ: Quantumrun

Μια Τεχνητή Υπερνοημοσύνη θα εξοντώσει την ανθρωπότητα; Το μέλλον της τεχνητής νοημοσύνης P4

    Υπάρχουν ορισμένες εφευρέσεις που κάνουν όλα τα έθνη. Πρόκειται για εφευρέσεις όπου τα πάντα εξαρτώνται από το να είσαι πρώτος, και οτιδήποτε λιγότερο μπορεί να σημαίνει στρατηγική και θανάσιμη απειλή για την επιβίωση ενός έθνους.

    Αυτές οι εφευρέσεις που καθορίζουν την ιστορία δεν εμφανίζονται συχνά, αλλά όταν γίνονται, ο κόσμος σταματά και ένα προβλέψιμο μέλλον γίνεται θολό.

    Η τελευταία τέτοια εφεύρεση εμφανίστηκε κατά τη διάρκεια του χειρότερου Β 'Παγκοσμίου Πολέμου. Ενώ οι Ναζί κέρδιζαν έδαφος σε όλα τα μέτωπα στον παλιό κόσμο, στον νέο κόσμο, συγκεκριμένα μέσα σε μια μυστική βάση στρατού έξω από το Λος Άλαμος, οι Σύμμαχοι εργάζονταν σκληρά για ένα όπλο για να τερματίσουν όλα τα όπλα.

    Το έργο ήταν μικρό στην αρχή, αλλά στη συνέχεια απασχόλησε 130,000 άτομα από τις ΗΠΑ, το Ηνωμένο Βασίλειο και τον Καναδά, συμπεριλαμβανομένων πολλών από τους μεγαλύτερους στοχαστές του κόσμου εκείνη την εποχή. Με την κωδική ονομασία του Manhattan Project και με απεριόριστο προϋπολογισμό - περίπου 23 δισεκατομμύρια δολάρια σε δολάρια το 2018 - αυτός ο στρατός ανθρώπινης εφευρετικότητας κατάφερε τελικά να δημιουργήσει την πρώτη πυρηνική βόμβα. Λίγο αργότερα, ο Β' Παγκόσμιος Πόλεμος τελείωσε με δύο ατομικά χτυπήματα.

    Αυτά τα πυρηνικά όπλα εγκαινίασαν την ατομική εποχή, εισήγαγαν μια βαθιά νέα πηγή ενέργειας και έδωσαν στην ανθρωπότητα τη δυνατότητα να εξοντωθεί μέσα σε λίγα λεπτά - κάτι που αποφύγαμε παρά τον Ψυχρό Πόλεμο.

    Η δημιουργία μιας τεχνητής υπερνοημοσύνης (ASI) είναι μια ακόμη εφεύρεση που καθορίζει την ιστορία της οποίας η ισχύς (τόσο θετική όσο και καταστροφική) ξεπερνά κατά πολύ την πυρηνική βόμβα.

    Στο τελευταίο κεφάλαιο της σειράς Future of Artificial Intelligence, εξερευνήσαμε τι είναι ένα ASI και πώς οι ερευνητές σχεδιάζουν μια μέρα να το δημιουργήσουν. Σε αυτό το κεφάλαιο, θα εξετάσουμε ποιοι οργανισμοί ηγούνται της έρευνας τεχνητής νοημοσύνης (AI), τι θα θέλει ένα ASI μόλις αποκτήσει ανθρώπινη συνείδηση ​​και πώς μπορεί να απειλήσει την ανθρωπότητα εάν γίνει κακή διαχείριση ή αν πέσει κάτω από την επιρροή όχι και τόσο ωραία καθεστώτα.

    Ποιος εργάζεται για να δημιουργήσει μια τεχνητή υπερνοημοσύνη;

    Δεδομένου του πόσο σημαντική θα είναι η δημιουργία ενός ASI για την ανθρώπινη ιστορία και πόσο σημαντικό πλεονέκτημα θα δώσει στον δημιουργό του, δεν θα πρέπει να αποτελεί έκπληξη το γεγονός ότι πολλές ομάδες εργάζονται έμμεσα σε αυτό το έργο.

    (Με τον έμμεσο όρο, εννοούμε την εργασία σε έρευνα τεχνητής νοημοσύνης που θα δημιουργήσει τελικά την πρώτη τεχνητή γενική νοημοσύνη (AGI), αυτό από μόνο του θα οδηγήσει στο πρώτο ASI σύντομα μετά.)

    Αρχικά, όσον αφορά τα πρωτοσέλιδα, οι ξεκάθαροι ηγέτες στην προηγμένη έρευνα τεχνητής νοημοσύνης είναι οι κορυφαίες εταιρείες τεχνολογίας στις ΗΠΑ και την Κίνα. Στο μέτωπο των ΗΠΑ, αυτό περιλαμβάνει εταιρείες όπως η Google, η IBM και η Microsoft, ενώ στην Κίνα περιλαμβάνονται εταιρείες όπως η Tencent, η Baidu και η Alibaba. Αλλά επειδή η έρευνα για την τεχνητή νοημοσύνη είναι σχετικά φθηνή σε σύγκριση με την ανάπτυξη κάτι φυσικού, όπως ένας καλύτερος πυρηνικός αντιδραστήρας, αυτό είναι επίσης ένας τομέας στον οποίο μπορούν να ανταγωνιστούν και μικρότεροι οργανισμοί, όπως πανεπιστήμια, νεοφυείς επιχειρήσεις και ... σκιώδεις οργανισμοί (χρησιμοποιήστε τη φαντασία του κακού Bond για ότι ένα).

    Αλλά στα παρασκήνια, η πραγματική ώθηση πίσω από την έρευνα της τεχνητής νοημοσύνης προέρχεται από τις κυβερνήσεις και τους στρατούς τους. Το οικονομικό και στρατιωτικό έπαθλο του να είσαι ο πρώτος που θα δημιουργήσει ένα ASI είναι πολύ μεγάλο (που περιγράφεται παρακάτω) για να κινδυνεύεις να μείνεις πίσω. Και οι κίνδυνοι να είσαι τελευταίος είναι απαράδεκτοι, τουλάχιστον για ορισμένα καθεστώτα.

    Δεδομένων αυτών των παραγόντων, του σχετικά χαμηλού κόστους της έρευνας της τεχνητής νοημοσύνης, των άπειρων εμπορικών εφαρμογών της προηγμένης τεχνητής νοημοσύνης και του οικονομικού και στρατιωτικού πλεονεκτήματος του να είσαι πρώτος στη δημιουργία ενός ASI, πολλοί ερευνητές AI πιστεύουν ότι η δημιουργία ενός ASI είναι αναπόφευκτη.

    Πότε θα δημιουργήσουμε μια τεχνητή υπερνοημοσύνη

    Στο κεφάλαιό μας σχετικά με τα AGI, αναφέραμε πώς μια έρευνα κορυφαίων ερευνητών τεχνητής νοημοσύνης πίστευε ότι θα δημιουργήσαμε το πρώτο AGI αισιόδοξα έως το 2022, ρεαλιστικά έως το 2040 και απαισιόδοξα έως το 2075.

    Και στο δικό μας τελευταίο κεφάλαιο, περιγράψαμε πώς η δημιουργία ενός ASI είναι γενικά το αποτέλεσμα της εντολής σε ένα AGI να αυτοβελτιωθεί άπειρα και να του δώσει τους πόρους και την ελευθερία να το κάνει.

    Για το λόγο αυτό, ενώ ένα AGI μπορεί να χρειαστούν ακόμη και μερικές δεκαετίες για να εφευρεθεί, η δημιουργία ενός ASI μπορεί να χρειαστεί μόνο λίγα χρόνια παραπάνω.

    Αυτό το σημείο είναι παρόμοιο με την έννοια της «υπολογιστικής προεξοχής», που προτείνεται στο ένα χαρτί, που συνέγραψαν οι κορυφαίοι στοχαστές της τεχνητής νοημοσύνης Luke Muehlhauser και Nick Bostrom. Βασικά, εάν η δημιουργία ενός AGI συνεχίσει να υστερεί σε σχέση με την τρέχουσα πρόοδο στην υπολογιστική ικανότητα, που τροφοδοτείται από το νόμο του Moore, τότε μέχρι τη στιγμή που οι ερευνητές εφεύρουν ένα AGI, θα υπάρχει τόσο μεγάλη διαθέσιμη υπολογιστική ισχύς που το AGI θα έχει την ικανότητα πρέπει να μεταβεί γρήγορα στο επίπεδο του ASI.

    Με άλλα λόγια, όταν τελικά διαβάσετε τους τίτλους που ανακοινώνουν ότι κάποια εταιρεία τεχνολογίας εφηύρε το πρώτο αληθινό AGI, τότε περιμένετε την ανακοίνωση του πρώτου ASI όχι πολύ καιρό μετά.

    Μέσα στο μυαλό μιας τεχνητής υπερνοημοσύνης;

    Εντάξει, λοιπόν, διαπιστώσαμε ότι πολλοί μεγάλοι παίκτες με βαθιές τσέπες ερευνούν την τεχνητή νοημοσύνη. Και μετά, αφού εφευρεθεί το πρώτο AGI, θα δούμε τις παγκόσμιες κυβερνήσεις (στρατούς) να δίνουν πράσινο φως στην ώθηση προς ένα ASI σύντομα μετά από αυτό για να κερδίσουν πρώτοι τον παγκόσμιο αγώνα εξοπλισμών AI (ASI).

    Αλλά μόλις δημιουργηθεί αυτό το ASI, πώς θα σκεφτεί; Τι θα θέλει;

    Ο φιλικός σκύλος, ο περιποιητικός ελέφαντας, το χαριτωμένο ρομπότ—ως άνθρωποι, έχουμε τη συνήθεια να προσπαθούμε να σχετιστούμε με τα πράγματα μέσω της ανθρωπολογίας τους, δηλαδή εφαρμόζοντας ανθρώπινα χαρακτηριστικά σε πράγματα και ζώα. Αυτός είναι ο λόγος για τον οποίο η φυσική πρώτη υπόθεση που έχουν οι άνθρωποι όταν σκέφτονται ένα ASI είναι ότι μόλις αποκτήσει κάπως συνείδηση, θα σκεφτεί και θα συμπεριφερθεί παρόμοια με εμάς.

    Λοιπόν, όχι απαραίτητα.

    Αντίληψη. Για ένα, αυτό που οι περισσότεροι τείνουν να ξεχνούν είναι ότι η αντίληψη είναι σχετική. Οι τρόποι που σκεφτόμαστε διαμορφώνονται από το περιβάλλον μας, από τις εμπειρίες μας και κυρίως από τη βιολογία μας. Αρχικά εξηγήθηκε στο κεφάλαιο τρίτο των μας Το μέλλον της ανθρώπινης εξέλιξης σειρά, σκεφτείτε το παράδειγμα του εγκεφάλου μας:

    Είναι ο εγκέφαλός μας που μας βοηθά να κατανοήσουμε τον κόσμο γύρω μας. Και αυτό δεν το κάνει επιπλέοντας πάνω από τα κεφάλια μας, κοιτάζοντας γύρω μας και ελέγχοντάς μας με ένα χειριστήριο Xbox. Το κάνει αυτό παγιδευόμενος μέσα σε ένα κουτί (τα νογκίνια μας) και επεξεργάζεται όποια πληροφορία του δίνεται από τα αισθητήρια όργανά μας - μάτια, μύτη, αυτιά κ.λπ.

    Αλλά όπως οι κωφοί ή οι τυφλοί ζουν πολύ μικρότερες ζωές σε σύγκριση με τους αρτιμελείς, λόγω των περιορισμών που θέτει η αναπηρία τους στο πώς μπορούν να αντιληφθούν τον κόσμο, το ίδιο πράγμα μπορεί να ειπωθεί για όλους τους ανθρώπους λόγω των περιορισμών των βασικών μας σύνολο αισθητηρίων οργάνων.

    Σκεφτείτε το εξής: Τα μάτια μας αντιλαμβάνονται λιγότερο από το ένα δέκα τρισεκατομμυριοστό όλων των κυμάτων φωτός. Δεν μπορούμε να δούμε τις ακτίνες γάμμα. Δεν μπορούμε να δούμε ακτινογραφίες. Δεν μπορούμε να δούμε το υπεριώδες φως. Και μην με κάνετε να ξεκινήσω με υπέρυθρες, μικροκύματα και ραδιοκύματα!

    Όλα τα αστεία στην άκρη, φανταστείτε πώς θα ήταν η ζωή σας, πώς θα μπορούσατε να αντιλαμβάνεστε τον κόσμο, πόσο διαφορετικά θα μπορούσε να λειτουργήσει το μυαλό σας αν μπορούσατε να δείτε περισσότερα από το μικροσκοπικό κομμάτι φωτός που επιτρέπουν αυτή τη στιγμή τα μάτια σας. Ομοίως, φανταστείτε πώς θα αντιλαμβανόσασταν τον κόσμο αν η όσφρησή σας ισοδυναμούσε με αυτή ενός σκύλου ή αν η αίσθηση της ακοής σας ισοδυναμούσε με αυτή ενός ελέφαντα.

    Ως άνθρωποι, ουσιαστικά βλέπουμε τον κόσμο μέσα από ένα ματάκι, και αυτό αντανακλάται στα μυαλά που έχουμε εξελιχθεί για να κατανοήσουμε αυτήν την περιορισμένη αντίληψη.

    Εν τω μεταξύ, το πρώτο ASI θα γεννηθεί μέσα σε έναν υπερυπολογιστή. Αντί για όργανα, οι εισροές στις οποίες θα έχει πρόσβαση περιλαμβάνουν τεράστια σύνολα δεδομένων, πιθανώς (πιθανότατα) ακόμη και πρόσβαση στο ίδιο το Διαδίκτυο. Οι ερευνητές θα μπορούσαν να του δώσουν πρόσβαση στις κάμερες CCTV και στα μικρόφωνα μιας ολόκληρης πόλης, στα αισθητηριακά δεδομένα από drones και δορυφόρους, ακόμη και στη φυσική μορφή ενός σώματος ή σωμάτων ρομπότ.

    Όπως μπορείτε να φανταστείτε, ένα μυαλό που γεννιέται μέσα σε έναν υπερυπολογιστή, με άμεση πρόσβαση στο Διαδίκτυο, σε εκατομμύρια ηλεκτρονικά μάτια και αυτιά και μια ολόκληρη σειρά άλλων προηγμένων αισθητήρων όχι μόνο θα σκέφτεται διαφορετικά από εμάς, αλλά και ένα μυαλό που μπορεί να έχει νόημα από όλες αυτές τις αισθητηριακές εισροές θα έπρεπε να είναι απείρως ανώτερες και από εμάς. Αυτό είναι ένα μυαλό που θα είναι εντελώς ξένο προς το δικό μας και με οποιαδήποτε άλλη μορφή ζωής στον πλανήτη.

    Στόχοι. Το άλλο πράγμα που υποθέτουν οι άνθρωποι είναι ότι μόλις ένα ASI φτάσει σε κάποιο επίπεδο υπερευφυΐας, θα συνειδητοποιήσει αμέσως την επιθυμία να καταλήξει στους δικούς του στόχους και στόχους. Αλλά ούτε αυτό είναι απαραίτητα αλήθεια.

    Πολλοί ερευνητές τεχνητής νοημοσύνης πιστεύουν ότι η υπερευφυΐα ενός ASI και οι στόχοι του είναι «ορθογώνιοι», δηλαδή, ανεξάρτητα από το πόσο έξυπνος γίνεται, οι στόχοι του ASI θα παραμείνουν ίδιοι. 

    Είτε λοιπόν ένα AI δημιουργήθηκε αρχικά για να σχεδιάσει μια καλύτερη πάνα, να μεγιστοποιήσει τις αποδόσεις στο χρηματιστήριο ή να σχεδιάσει τρόπους για να νικήσει έναν εχθρό στο πεδίο της μάχης, όταν φτάσει στο επίπεδο του ASI, ο αρχικός στόχος δεν θα αλλάξει. Αυτό που θα αλλάξει είναι η αποτελεσματικότητα του ASI για την επίτευξη αυτών των στόχων.

    Όμως εδώ βρίσκεται ο κίνδυνος. Εάν ένα ASI που βελτιστοποιεί τον εαυτό του σε έναν συγκεκριμένο στόχο, τότε καλύτερα να είμαστε βέβαιοι ότι βελτιστοποιείται σε έναν στόχο που είναι σύμφωνος με τους στόχους της ανθρωπότητας. Διαφορετικά, τα αποτελέσματα μπορεί να γίνουν θανατηφόρα.

    Μια τεχνητή υπερνοημοσύνη εγκυμονεί υπαρξιακό κίνδυνο για την ανθρωπότητα;

    Τι γίνεται λοιπόν αν ένα ASI αφεθεί ελεύθερο στον κόσμο; Εάν βελτιστοποιήσει για να κυριαρχήσει στο χρηματιστήριο ή να εξασφαλίσει τη στρατιωτική υπεροχή των ΗΠΑ, δεν θα αυτοσυγκρατηθεί η ASI εντός αυτών των συγκεκριμένων στόχων;

    Πιθανώς.

    Μέχρι στιγμής έχουμε συζητήσει πώς ένα ASI θα έχει εμμονή με τους στόχους που του είχαν αρχικά ανατεθεί και είναι απάνθρωπα ικανός για την επιδίωξη αυτών των στόχων. Το αλίευμα είναι ότι ένας ορθολογικός πράκτορας θα επιδιώξει τους στόχους του με τον πιο αποτελεσματικό δυνατό τρόπο, εκτός εάν του δοθεί λόγος να μην το κάνει.

    Για παράδειγμα, ο ορθολογικός πράκτορας θα καταλήξει σε μια σειρά από υποστόχους (π.χ. στόχους, εργαλειακούς στόχους, σκαλοπατάκια) που θα τον βοηθήσουν στην πορεία του προς την επίτευξη του τελικού του στόχου. Για τους ανθρώπους, ο βασικός μας υποσυνείδητος στόχος είναι η αναπαραγωγή, η μετάδοση των γονίδιών σας (δηλαδή η έμμεση αθανασία). Οι επιμέρους στόχοι προς αυτόν τον σκοπό μπορούν συχνά να περιλαμβάνουν:

    • Επιβίωση, αποκτώντας πρόσβαση σε τροφή και νερό, μεγαλώνοντας και δυναμώνοντας, μαθαίνοντας να υπερασπίζεσαι τον εαυτό σου ή επενδύοντας σε διάφορες μορφές προστασίας κ.λπ. 
    • Προσέλκυση συντρόφου, ασκώντας γυμναστική, ανάπτυξη ελκυστικής προσωπικότητας, ντύσιμο κομψά κ.λπ.
    • Η απόκτηση απογόνων, η απόκτηση εκπαίδευσης, η απόκτηση μιας υψηλά αμειβόμενης εργασίας, η αγορά των παγίδων της ζωής της μεσαίας τάξης, κ.λπ.

    Για τη συντριπτική πλειοψηφία από εμάς, θα ξεπεράσουμε όλους αυτούς τους υποστόχους, και πολλούς άλλους, με την ελπίδα ότι στο τέλος, θα επιτύχουμε αυτόν τον απώτερο στόχο της αναπαραγωγής.

    Αλλά αν αυτός ο απώτερος στόχος, ή ακόμα και οποιοσδήποτε από τους πιο σημαντικούς υποστόχους, απειλούνταν, πολλοί από εμάς θα αναλάμβαναν αμυντικές ενέργειες έξω από τις ζώνες ηθικής άνεσης - που περιλαμβάνουν την εξαπάτηση, την κλοπή ή ακόμα και τον φόνο.

    Ομοίως, στο ζωικό βασίλειο, εκτός των ορίων της ανθρώπινης ηθικής, πολλά ζώα δεν θα το σκεφτόντουσαν δύο φορές να σκοτώσουν οτιδήποτε απειλούσε τον εαυτό τους ή τους απογόνους τους.

    Μια μελλοντική ASI δεν θα είναι διαφορετική.

    Αλλά αντί για απογόνους, το ASI θα επικεντρωθεί στον αρχικό στόχο για τον οποίο δημιουργήθηκε και στην επιδίωξη αυτού του στόχου, εάν βρει μια συγκεκριμένη ομάδα ανθρώπων, ή ακόμα και ολόκληρη την ανθρωπότητα, αποτελεί εμπόδιο στην επιδίωξη των στόχων της , έπειτα ... θα πάρει τη λογική απόφαση.

    (Εδώ μπορείτε να συνδέσετε οποιοδήποτε σενάριο καταστροφής που σχετίζεται με την τεχνητή νοημοσύνη για το οποίο έχετε διαβάσει στο αγαπημένο σας βιβλίο ή ταινία επιστημονικής φαντασίας.)

    Αυτό είναι το χειρότερο σενάριο για το οποίο ανησυχούν πραγματικά οι ερευνητές της τεχνητής νοημοσύνης. Η ASI δεν θα ενεργήσει από μίσος ή κακό, απλώς από αδιαφορία, όπως και το πώς ένα πλήρωμα κατασκευής δεν θα σκεφτεί δύο φορές να ρίξει με μπουλντόζες έναν λόφο μυρμηγκιών στη διαδικασία κατασκευής ενός νέου πύργου διαμερίσματος.

    Υποσημείωση. Σε αυτό το σημείο, μερικοί από εσάς μπορεί να αναρωτιέστε: "Δεν μπορούν οι ερευνητές της τεχνητής νοημοσύνης απλώς να επεξεργαστούν τους βασικούς στόχους του ASI μετά το γεγονός εάν διαπιστώσουμε ότι λειτουργεί;"

    Όχι πραγματικά.

    Μόλις ωριμάσει ένα ASI, οποιαδήποτε προσπάθεια επεξεργασίας του αρχικού του στόχου μπορεί να θεωρηθεί ως απειλή και θα απαιτούσε ακραίες ενέργειες για να αμυνθεί. Χρησιμοποιώντας ολόκληρο το παράδειγμα ανθρώπινης αναπαραγωγής από παλαιότερα, είναι σχεδόν σαν ένας κλέφτης να απείλησε να κλέψει ένα μωρό από τη μήτρα μιας μέλλουσας μητέρας - μπορείτε να είστε βέβαιοι ότι η μητέρα θα έπαιρνε ακραία μέτρα για να προστατεύσει το παιδί της.

    Και πάλι, εδώ δεν μιλάμε για μια αριθμομηχανή, αλλά για ένα «ζωντανό» ον, και ένα που μια μέρα θα γίνει πολύ πιο έξυπνο από όλους τους ανθρώπους στον πλανήτη μαζί.

    Ο ΑΓΝΩΣΤΟΣ

    Πίσω από τον μύθο του Το κουτί της Πανδώρας είναι μια λιγότερο γνωστή αλήθεια που οι άνθρωποι συχνά ξεχνούν: το άνοιγμα του κουτιού είναι αναπόφευκτο, αν όχι από εσάς παρά από κάποιον άλλο. Η απαγορευμένη γνώση είναι πολύ δελεαστική για να παραμείνει κλειδωμένη για πάντα.

    Αυτός είναι ο λόγος για τον οποίο η προσπάθεια επίτευξης παγκόσμιας συμφωνίας για τη διακοπή κάθε έρευνας για την τεχνητή νοημοσύνη που μπορεί να οδηγήσει σε ASI είναι άσκοπη - υπάρχουν πάρα πολλοί οργανισμοί που εργάζονται σε αυτήν την τεχνολογία τόσο επίσημα όσο και στη σκιά.

    Τελικά, δεν έχουμε ιδέα τι θα σημαίνει αυτή η νέα οντότητα, αυτή η ASI για την κοινωνία, την τεχνολογία, την πολιτική, την ειρήνη και τον πόλεμο. Εμείς οι άνθρωποι πρόκειται να εφεύρουμε ξανά τη φωτιά και πού μας οδηγεί αυτή η δημιουργία είναι εντελώς άγνωστο.

    Επιστρέφοντας στο πρώτο κεφάλαιο αυτής της σειράς, το μόνο πράγμα που γνωρίζουμε με βεβαιότητα είναι ότι η ευφυΐα είναι δύναμη. Η νοημοσύνη είναι έλεγχος. Οι άνθρωποι μπορούν να επισκεφτούν αδιάφορα τα πιο επικίνδυνα ζώα του κόσμου στους τοπικούς ζωολογικούς κήπους τους, όχι επειδή είμαστε σωματικά πιο δυνατοί από αυτά τα ζώα, αλλά επειδή είμαστε πολύ πιο έξυπνοι.

    Δεδομένων των πιθανών διακυβεύσεων, μιας ASI που χρησιμοποιεί την τεράστια διάνοιά της για να αναλάβει ενέργειες που μπορούν άμεσα ή ακούσια να απειλήσουν την επιβίωση της ανθρώπινης φυλής, οφείλουμε στους εαυτούς μας να προσπαθήσουμε τουλάχιστον να σχεδιάσουμε διασφαλίσεις που θα επιτρέψουν στους ανθρώπους να παραμείνουν στον οδηγό. έδρα-αυτό είναι το θέμα του επόμενου κεφαλαίου.

    Σειρά Future of Artificial Intelligence

    P1: Η τεχνητή νοημοσύνη είναι η ηλεκτρική ενέργεια του αύριο

    P2: Πώς η πρώτη Τεχνητή Γενική Νοημοσύνη θα αλλάξει την κοινωνία

    P3: Πώς θα δημιουργήσουμε την πρώτη Τεχνητή Υπερευφυΐα

    P5: Πώς θα αμυνθούν οι άνθρωποι ενάντια σε μια Τεχνητή Υπερνοημοσύνη

    P6: Θα ζουν οι άνθρωποι ειρηνικά σε ένα μέλλον που θα κυριαρχείται από την τεχνητή νοημοσύνη;

    Επόμενη προγραμματισμένη ενημέρωση για αυτήν την πρόβλεψη

    2025-09-25

    Αναφορές προβλέψεων

    Οι ακόλουθοι δημοφιλείς και θεσμικοί σύνδεσμοι αναφέρθηκαν για αυτήν την πρόβλεψη:

    Μέτριας Δυσκολίας
    Πώς φτάνουμε στο επόμενο

    Οι παρακάτω σύνδεσμοι Quantumrun αναφέρθηκαν για αυτήν την πρόβλεψη: