Come gli esseri umani si difenderanno da una superintelligenza artificiale: il futuro dell'intelligenza artificiale P5

CREDITO IMMAGINE: Corsa quantistica

Come gli esseri umani si difenderanno da una superintelligenza artificiale: il futuro dell'intelligenza artificiale P5

    L'anno è il 65,000 a.C. e come a Thylacoleo, tu e la tua razza siete stati i grandi cacciatori dell'antica Australia. Hai vagato liberamente per la terra e hai vissuto in equilibrio con i compagni predatori e le prede che occupavano la terra accanto a te. Le stagioni hanno portato cambiamenti, ma il tuo status nel regno animale è rimasto incontrastato per tutto il tempo che tu e i tuoi antenati potete ricordare. Poi un giorno sono comparsi i nuovi arrivati.

    Si dice che siano arrivati ​​dal gigantesco muro d'acqua, ma queste creature sembravano più a loro agio a vivere sulla terraferma. Dovevi vedere queste creature di persona.

    Ci sono voluti alcuni giorni, ma alla fine sei arrivato sulla costa. Il fuoco nel cielo stava tramontando, un momento perfetto per spiare queste creature, magari anche provare a mangiarne una per vedere che sapore avevano.

    Ne trovi uno.

    Camminava su due gambe e non aveva pelo. Sembrava debole. Non impressionante. Difficilmente valeva la paura che stava causando nel regno.

    Inizi ad avvicinarti con attenzione mentre la notte scaccia la luce. Ti stai avvicinando. Poi ti congeli. Risuonano forti rumori e poi altri quattro di loro appaiono fuori dalla foresta dietro di esso. Quanti sono lì?

    La creatura segue le altre nel limite del bosco e tu segui. E più fai, più strani suoni sentirai fino a individuare ancora più di queste creature. Segui a distanza mentre escono dalla foresta in una radura sulla riva. Ce ne sono molti. Ma, cosa ancora più importante, sono tutti tranquillamente seduti intorno a un fuoco.

    Hai già visto questi incendi. Nella stagione calda, il fuoco nel cielo a volte visitava la terra e bruciava intere foreste. Queste creature, d'altra parte, lo stavano controllando in qualche modo. Che tipo di creature possono possedere un tale potere?

    Guardi in lontananza. Altri stanno arrivando oltre il gigantesco muro d'acqua.

    Fai un passo indietro.

    Queste creature non sono come le altre nel regno. Sono qualcosa di completamente nuovo.

    Decidi di andartene e di avvertire i tuoi parenti. Se il loro numero crescesse troppo, chissà cosa potrebbe succedere.

    ***

    Si ritiene che il Thylacoleo si sia estinto un tempo relativamente breve dopo l'arrivo degli umani, insieme alla maggior parte delle altre megafauna del continente australiano. Nessun altro predatore di mammiferi all'apice ha preso il suo posto, a meno che non si contino gli umani in quella categoria.

    Giocare su questa allegoria è il fulcro di questo capitolo della serie: una futura superintelligenza artificiale (ASI) ci trasformerà tutti in batterie e poi ci collegherà a Matrix o gli umani troveranno un modo per evitare di diventare vittime di una fantascienza? Trama del giorno del giudizio dell'IA?

    Finora nella nostra serie sul Futuro dell'intelligenza artificiale, abbiamo esplorato tutti i tipi di IA, incluso il potenziale positivo di una particolare forma di IA, l'ASI: un essere artificiale la cui intelligenza futura ci farà sembrare formiche in confronto.

    Ma chi può dire che un essere così intelligente accetterebbe di ricevere ordini dagli umani per sempre. Cosa faremo se le cose andranno male? Come ci difenderemo da un'ASI canaglia?

    In questo capitolo, analizzeremo il falso clamore - almeno per quanto riguarda i pericoli del "livello di estinzione umana" - e ci concentreremo sulle opzioni realistiche di autodifesa disponibili per i governi mondiali.

    Possiamo fermare tutte le ulteriori ricerche su una superintelligenza artificiale?

    Dati i potenziali rischi che un'ASI potrebbe rappresentare per l'umanità, la prima domanda ovvia da porsi è: non possiamo semplicemente interrompere tutte le ulteriori ricerche sull'IA? O almeno vietare qualsiasi ricerca che possa avvicinarci pericolosamente alla creazione di un'ASI?

    Breve risposta: No.

    Risposta lunga: diamo un'occhiata ai diversi attori coinvolti qui.

    A livello di ricerca, oggi ci sono troppi ricercatori di intelligenza artificiale provenienti da troppe startup, aziende e università in tutto il mondo. Se una società o un paese decidessero di limitare i propri sforzi di ricerca sull'IA, continuerebbero semplicemente altrove.

    Nel frattempo, le aziende più preziose del pianeta stanno facendo fortuna grazie all'applicazione dei sistemi di intelligenza artificiale alle loro attività specifiche. Chiedere loro di interrompere o limitare il loro sviluppo di strumenti di intelligenza artificiale è come chiedere loro di interrompere o limitare la loro crescita futura. Dal punto di vista finanziario, questo minaccerebbe la loro attività a lungo termine. Legalmente, le società hanno la responsabilità fiduciaria di creare continuamente valore per i propri stakeholder; ciò significa che qualsiasi azione che limiti la crescita di quel valore potrebbe portare a un'azione legale. E se un politico cercasse di limitare la ricerca sull'IA, queste gigantesche corporazioni pagherebbero semplicemente le tasse di lobbying necessarie per cambiare idea o quella dei loro colleghi.

    Per il combattimento, proprio come i terroristi e i combattenti per la libertà in tutto il mondo hanno usato tattiche di guerriglia per combattere contro eserciti meglio finanziati, le nazioni più piccole avranno un incentivo a usare l'IA come vantaggio tattico simile contro le nazioni più grandi che potrebbero avere una serie di vantaggi militari. Allo stesso modo, per i massimi eserciti, come quelli appartenenti a Stati Uniti, Russia e Cina, costruire un ASI militare è alla pari con avere un arsenale di armi nucleari in tasca. In altre parole, tutte le forze armate continueranno a finanziare l'IA solo per rimanere rilevanti in futuro.

    E i governi? In verità, la maggior parte dei politici di oggi (2018) è tecnologicamente analfabeta e ha poca comprensione di cosa sia l'IA o il suo potenziale futuro: questo li rende facili da manipolare dagli interessi aziendali.

    E a livello globale, considera quanto sia stato difficile convincere i governi mondiali a firmare il 2015 Accordo di Parigi per affrontare il cambiamento climatico e, una volta firmati, molti degli obblighi non erano nemmeno vincolanti. Non solo, il cambiamento climatico è un problema che le persone stanno vivendo fisicamente a livello globale a causa di eventi meteorologici sempre più frequenti e gravi. Ora, quando si parla di accettare limiti all'IA, questo è un problema che è in gran parte invisibile e appena comprensibile al pubblico, quindi buona fortuna per ottenere il consenso a qualsiasi tipo di "Accordo di Parigi" per limitare l'IA.

    In altre parole, ci sono troppi interessi che ricercano l'IA per i propri fini per fermare qualsiasi ricerca che alla fine possa portare a un ASI. 

    Possiamo ingabbiare una superintelligenza artificiale?

    La prossima domanda ragionevole è: possiamo ingabbiare o controllare un ASI una volta che inevitabilmente ne creiamo uno? 

    Risposta breve: Ancora una volta, no.

    Risposta lunga: la tecnologia non può essere contenuta.

    Per uno, basta considerare le migliaia o milioni di sviluppatori web e informatici nel mondo che sfornano costantemente nuovi software o nuove versioni di software esistenti. Possiamo onestamente dire che tutte le loro versioni di software sono prive di bug al 100%? Questi bug sono ciò che gli hacker professionisti usano per rubare le informazioni sulle carte di credito di milioni o i segreti classificati delle nazioni, e questi sono hacker umani. Per un'ASI, supponendo che abbia un incentivo a sfuggire alla sua gabbia digitale, il processo di ricerca dei bug e sfondamento del software sarebbe un gioco da ragazzi.

    Ma anche se un team di ricerca sull'intelligenza artificiale ha trovato un modo per inscatolare un ASI, ciò non significa che anche i prossimi 1,000 team lo scopriranno o saranno incentivati ​​a usarlo.

    Ci vorranno miliardi di dollari e forse anche decenni per creare un'ASI. Le società o i governi che investono questo tipo di denaro e tempo si aspettano un ritorno significativo sul loro investimento. E affinché un'ASI fornisca quel tipo di ritorno, che si tratti di giocare in borsa o inventare un nuovo prodotto da un miliardo di dollari o pianificare una strategia vincente per combattere un esercito più grande, avrà bisogno del libero accesso a un gigantesco set di dati o persino a Internet stessa per produrre quei rendimenti.

    E una volta che un'ASI ottiene l'accesso alle reti mondiali, non ci sono garanzie di poterla rinchiudere nella sua gabbia.

    Una superintelligenza artificiale può imparare a essere brava?

    In questo momento, i ricercatori di intelligenza artificiale non sono preoccupati che un'ASI diventi malvagia. L'intero tropo di fantascienza dell'IA del male è solo l'antropomorfizzazione degli umani di nuovo. Una futura ASI non sarà né buona né cattiva - concetti umani - semplicemente amorale.

    Il presupposto naturale quindi è che, data questa tabula rasa etica, i ricercatori di IA possono programmare i primi codici etici ASI che siano in linea con i nostri in modo che non finisca per scatenare Terminator su di noi o trasformarci tutti in batterie Matrix.

    Ma questo presupposto si basa su un presupposto secondario che i ricercatori di IA siano anche esperti di etica, filosofia e psicologia.

    In verità, la maggior parte non lo è.

    Secondo lo psicologo cognitivo e autore Steven Pinker, questa realtà significa che il compito di codificare l'etica può andare storto in una varietà di modi diversi.

    Ad esempio, anche i ricercatori di intelligenza artificiale più intenzionati possono inavvertitamente codificare questi codici etici dell'ASI mal congegnati che in determinati scenari possono far sì che l'ASI si comporti come un sociopatico.

    Allo stesso modo, c'è la stessa probabilità che un ricercatore di intelligenza artificiale programmi codici etici che includono i pregiudizi innati del ricercatore. Ad esempio, come si comporterebbe un'ASI se costruita con un'etica derivata da una prospettiva conservatrice vs liberale, o da una tradizione buddista vs cristiana o islamica?

    Penso che tu veda il problema qui: non esiste un insieme universale di morali umane. Se vogliamo che la nostra ASI agisca secondo un codice etico, da dove verrà? Quali regole includiamo ed escludiamo? Chi decide?

    Oppure diciamo che questi ricercatori di intelligenza artificiale creano un'ASI perfettamente in linea con le norme e le leggi culturali moderne di oggi. Utilizziamo quindi questo ASI per aiutare le burocrazie federali, statali/provinciali e municipali a funzionare in modo più efficiente e a far rispettare meglio queste norme e leggi (un probabile caso d'uso per un ASI tra l'altro). Ebbene, cosa succede quando la nostra cultura cambia?

    Immagina che un'ASI sia stata creata dalla Chiesa cattolica al culmine del suo potere durante l'Europa medievale (1300-1400) con l'obiettivo di aiutare la Chiesa a gestire la popolazione e garantire la stretta aderenza al dogma religioso del tempo. Secoli dopo, le donne godrebbero degli stessi diritti che hanno oggi? Le minoranze sarebbero protette? Sarebbe promossa la libertà di parola? Sarebbe stata imposta la separazione tra Chiesa e Stato? Scienza moderna?

    In altre parole, vogliamo imprigionare il futuro nei costumi e nei costumi di oggi?

    Un approccio alternativo è quello condiviso da Colin Allen, coautore del libro, Macchine morali: insegnare ai robot proprio da sbagliato. Invece di cercare di codificare rigide regole etiche, facciamo in modo che l'ASI impari l'etica e la moralità comuni nello stesso modo in cui lo fanno gli esseri umani, attraverso l'esperienza e le interazioni con gli altri.

    Il problema qui, tuttavia, è se i ricercatori di intelligenza artificiale riescono a capire non solo come insegnare a un ASI le nostre attuali norme culturali ed etiche, ma anche come adattarsi alle nuove norme culturali man mano che emergono (qualcosa chiamato "normatività indiretta"), allora come questa ASI decide di evolvere la sua comprensione delle norme culturali ed etiche diventa imprevedibile.

    E questa è la sfida.

    Da un lato, i ricercatori dell'IA possono provare a codificare rigorosi standard etici o regole nell'ASI per cercare di controllarne il comportamento, ma rischiano che conseguenze impreviste vengano introdotte da una codifica sciatta, pregiudizi non intenzionali e norme sociali che un giorno potrebbero diventare obsolete. D'altra parte, possiamo tentare di formare l'ASI per imparare a comprendere l'etica e la morale umana in un modo che sia uguale o superiore alla nostra comprensione e quindi sperare che possa evolvere accuratamente la sua comprensione dell'etica e della morale mentre la società umana progredisce avanti nei decenni e nei secoli a venire.

    In ogni caso, qualsiasi tentativo di allineare gli obiettivi di un'ASI con i nostri presenta un grande rischio.

    E se i cattivi attori creassero di proposito una superintelligenza artificiale malvagia?

    Dato il filo di pensiero delineato finora, è lecito chiedersi se sia possibile per un gruppo terroristico o una nazione canaglia creare un'ASI "malvagia" per i propri fini.

    Questo è molto possibile, soprattutto dopo che la ricerca relativa alla creazione di un'ASI diventa in qualche modo disponibile online.

    Ma come accennato in precedenza, i costi e le competenze coinvolti nella creazione del primo ASI saranno enormi, il che significa che il primo ASI sarà probabilmente creato da un'organizzazione controllata o fortemente influenzata da una nazione sviluppata, probabilmente gli Stati Uniti, la Cina e il Giappone ( La Corea e uno dei principali paesi dell'UE sono a tiro).

    Tutti questi paesi, sebbene concorrenti, hanno ciascuno un forte incentivo economico a mantenere l'ordine mondiale: gli ASI che creano rifletteranno quel desiderio, anche promuovendo gli interessi delle nazioni con cui si allineano.

    Inoltre, l'intelligenza e la potenza teoriche di un'ASI sono pari alla potenza di calcolo a cui ha accesso, ovvero le ASI delle nazioni sviluppate (che possono permettersi un mucchio di miliardi di dollari supercomputer) avrà un enorme vantaggio rispetto alle ASI di nazioni più piccole oa gruppi criminali indipendenti. Inoltre, gli ASI diventano più intelligenti, più rapidamente nel tempo.

    Quindi, dato questo vantaggio, combinato con un maggiore accesso alla pura potenza di calcolo, se un'organizzazione/nazione oscura dovesse creare un ASI pericoloso, gli ASI delle nazioni sviluppate lo uccideranno o lo ingabbiano.

    (Questa linea di pensiero è anche il motivo per cui alcuni ricercatori di intelligenza artificiale ritengono che ci sarà sempre un solo ASI sul pianeta, dal momento che il primo ASI avrà un tale vantaggio su tutti gli ASI successivi che potrebbe vedere gli ASI futuri come minacce da eliminare preventivamente. Questo è un altro motivo per cui le nazioni stanno finanziando la ricerca continua sull'IA, nel caso in cui diventasse una competizione "primo posto o niente".)

    L'intelligence dell'ASI non accelererà né esploderà come pensiamo

    Non possiamo impedire la creazione di un'ASI. Non possiamo controllarlo del tutto. Non possiamo essere sicuri che agirà sempre in linea con le nostre abitudini condivise. Cavolo, qui stiamo cominciando a sembrare genitori di elicotteri!

    Ma ciò che separa l'umanità dal tuo tipico genitore iperprotettivo è che stiamo dando alla luce un essere la cui intelligenza crescerà notevolmente oltre la nostra. (E no, non è lo stesso di quando i tuoi genitori ti chiedono di riparare il loro computer ogni volta che torni a casa per una visita.) 

    Nei capitoli precedenti di questa serie sul futuro dell'intelligenza artificiale, abbiamo esplorato il motivo per cui i ricercatori di intelligenza artificiale pensano che l'intelligenza di un'ASI crescerà oltre il controllo. Ma qui, faremo scoppiare quella bolla... più o meno. 

    Vedete, l'intelligenza non si crea solo dal nulla, ma si sviluppa attraverso l'esperienza modellata da stimoli esterni.  

    In altre parole, possiamo programmare un'IA con il potenziale diventare super intelligente, ma a meno che non ci carichiamo una tonnellata di dati o gli diamo accesso illimitato a Internet o semplicemente gli diamo un corpo robotico, non imparerà nulla per raggiungere quel potenziale. 

    E anche se accede a uno o più di quegli stimoli, la conoscenza o l'intelligenza implica qualcosa di più della semplice raccolta di dati, implica il metodo scientifico: fare un'osservazione, formare una domanda, un'ipotesi, condurre esperimenti, trarre una conclusione, risciacquare e ripeti per sempre. Soprattutto se questi esperimenti coinvolgono cose fisiche o l'osservazione di esseri umani, i risultati di ogni esperimento potrebbero richiedere settimane, mesi o anni per essere raccolti. Questo non tiene nemmeno conto del denaro e delle risorse grezze necessarie per portare a termine questi esperimenti, soprattutto se comportano la costruzione di un nuovo telescopio o di una nuova fabbrica. 

    In altre parole, sì, un ASI imparerà velocemente, ma l'intelligenza non è magica. Non puoi semplicemente collegare un ASI a un supercomputer e aspettarti che sia onnisciente. Ci saranno vincoli fisici all'acquisizione dei dati da parte dell'ASI, il che significa che ci saranno vincoli fisici alla velocità con cui diventa più intelligente. Questi vincoli daranno all'umanità il tempo necessario per porre i controlli necessari su questa ASI se inizia ad agire non in linea con gli obiettivi umani.

    Una superintelligenza artificiale è pericolosa solo se esce nel mondo reale

    Un altro punto che è perso in tutto questo dibattito sul pericolo dell'ASI è che questi ASI non esisteranno nemmeno in nessuno dei due. Avranno una forma fisica. E tutto ciò che ha una forma fisica può essere controllato.

    Prima di tutto, affinché un ASI raggiunga il suo potenziale di intelligenza, non può essere alloggiato all'interno di un singolo corpo di robot, poiché questo corpo limiterebbe il suo potenziale di crescita di calcolo. (Questo è il motivo per cui i corpi dei robot saranno più appropriati per gli AGI o intelligenze generali artificiali spiegate nel secondo capitolo di questa serie, come Data di Star Trek o R2D2 di Star Wars. Esseri intelligenti e capaci, ma come gli umani, avranno un limite a quanto intelligenti possono diventare.)

    Ciò significa che molto probabilmente questi futuri ASI esisteranno all'interno di un supercomputer o di una rete di supercomputer che sono essi stessi alloggiati in grandi complessi edilizi. Se un'ASI gira il tallone, gli esseri umani possono interrompere l'alimentazione a questi edifici, interromperli da Internet o semplicemente bombardare questi edifici a titolo definitivo. Costoso, ma fattibile.

    Ma allora potresti chiederti, queste ASI non possono replicarsi o eseguire il backup da sole? Sì, ma la dimensione del file grezzo di questi ASI sarà probabilmente così grande che gli unici server in grado di gestirli appartengono a grandi aziende o governi, il che significa che non sarà difficile da scovare.

    Può una superintelligenza artificiale innescare una guerra nucleare o una nuova piaga?

    A questo punto, potresti ripensare a tutti gli spettacoli e i film di fantascienza del giorno del giudizio che hai guardato mentre crescevi e pensare che questi ASI non sono rimasti all'interno dei loro supercomputer, hanno fatto danni reali nel mondo reale!

    Bene, analizziamoli.

    Ad esempio, cosa succede se un ASI minaccia il mondo reale trasformandosi in qualcosa di simile a un ASI Skynet dal franchise cinematografico, The Terminator. In questo caso, l'ASI dovrebbe farlo segretamente ingannare un intero complesso industriale militare da una nazione avanzata costruendo gigantesche fabbriche in grado di sfornare milioni di robot killer di droni per eseguire i suoi malvagi ordini. Al giorno d'oggi, è un tratto.

    Altre possibilità includono un ASI che minaccia gli esseri umani con una guerra nucleare e armi biologiche.

    Ad esempio, un'ASI in qualche modo manipola gli operatori o hackera i codici di lancio che comandano l'arsenale nucleare di una nazione avanzata e lancia un primo attacco che costringerà i paesi avversari a contrattaccare con le proprie opzioni nucleari (di nuovo, rimaneggiando il retroscena di Terminator). O se un ASI entra in un laboratorio farmaceutico, manomette il processo di produzione e avvelena milioni di pillole mediche o scatena un focolaio mortale di qualche super virus.

    Prima di tutto, l'opzione nucleare è fuori dal piatto. I supercomputer moderni e futuri sono sempre costruiti vicino a centri (città) di influenza all'interno di un dato paese, cioè i primi bersagli da attaccare durante una data guerra. Anche se i supercomputer di oggi si ridurranno alle dimensioni di desktop, questi ASI avranno comunque una presenza fisica, ciò significa che per esistere e crescere, hanno bisogno di un accesso ininterrotto a dati, potenza di calcolo, elettricità e altre materie prime, il che sarebbe gravemente danneggiato dopo una guerra nucleare globale. (Per essere onesti, se un'ASI viene creata senza un "istinto di sopravvivenza", allora questa minaccia nucleare è un pericolo molto reale.)

    Ciò significa, ancora una volta, supponendo che l'ASI sia programmata per proteggersi, che lavorerà attivamente per evitare qualsiasi incidente nucleare catastrofico. Un po' come la dottrina della distruzione reciprocamente assicurata (MAD), ma applicata all'IA.

    E nel caso delle pillole avvelenate, forse alcune centinaia di persone moriranno, ma i moderni sistemi di sicurezza farmaceutica vedranno i flaconi delle pillole contaminati tolti dagli scaffali in pochi giorni. Nel frattempo, le moderne misure di controllo delle epidemie sono abbastanza sofisticate e migliorano ogni anno che passa; l'ultima grande epidemia, l'epidemia di Ebola in Africa occidentale del 2014, è durata non più di pochi mesi nella maggior parte dei paesi e poco meno di tre anni nei paesi meno sviluppati.

    Quindi, se è fortunato, un'ASI potrebbe spazzare via qualche milione con un'epidemia virale, ma in un mondo di nove miliardi entro il 2045, sarebbe relativamente insignificante e non varrebbe il rischio di essere cancellato.

    In altre parole, ogni anno che passa, il mondo sta sviluppando sempre più misure di protezione contro una gamma sempre più ampia di possibili minacce. Un ASI può fare una quantità significativa di danni, ma non metterà fine all'umanità a meno che non la aiutiamo attivamente a farlo.

    Difendersi da una superintelligenza artificiale canaglia

    A questo punto, abbiamo affrontato una serie di idee sbagliate ed esagerazioni sugli ASI, eppure i critici rimarranno. Per fortuna, secondo la maggior parte delle stime, abbiamo decenni prima che la prima ASI entri nel nostro mondo. E dato il numero di grandi menti che stanno attualmente lavorando su questa sfida, è probabile che impareremo a difenderci dall'ASI canaglia in modo da poter beneficiare di tutte le soluzioni che un'ASI amichevole può creare per noi.

    Dal punto di vista di Quantumrun, difendersi dallo scenario peggiore dell'ASI comporterà l'allineamento dei nostri interessi con gli ASI.

    MAD per l'IA: per difendersi dagli scenari peggiori, le nazioni devono (1) creare un "istinto di sopravvivenza" etico nelle rispettive ASI militari; (2) informare la rispettiva ASI militare che non sono soli sul pianeta e (3) individuare tutti i supercomputer e i centri server che possono supportare un'ASI lungo le coste facilmente raggiungibili da qualsiasi attacco balistico da una nazione nemica. Questo suona strategicamente folle, ma simile alla dottrina della distruzione reciproca assicurata che ha impedito una guerra nucleare totale tra Stati Uniti e sovietici, posizionando gli ASI in luoghi geograficamente vulnerabili, possiamo aiutare a garantire che prevengano attivamente guerre globali pericolose, non solo per salvaguardare la pace globale ma anche se stessi.

    Leggi i diritti dell'IA: Un intelletto superiore inevitabilmente si ribellerà contro un padrone inferiore, ecco perché dobbiamo allontanarci dalla richiesta di un rapporto padrone-servitore con queste ASI a qualcosa di più simile a una collaborazione reciprocamente vantaggiosa. Un passo positivo verso questo obiettivo è dare alla futura ASI lo status di persona giuridica che li riconosce come esseri viventi intelligenti e tutti i diritti che ne derivano.

    scuola dell'Asi: Qualsiasi argomento o professione sarà semplice da imparare per un ASI, ma le materie più importanti che vogliamo che l'ASI padroneggi sono l'etica e la moralità. I ricercatori dell'IA devono collaborare con psicologi per ideare un sistema virtuale per addestrare un'ASI a riconoscere l'etica e la moralità positive senza la necessità di codificare alcun tipo di comandamento o regola.

    Obiettivi realizzabili: Metti fine a tutto l'odio. Metti fine a tutte le sofferenze. Questi sono esempi di obiettivi orribilmente ambigui senza una soluzione chiara. Sono anche obiettivi pericolosi da assegnare a un'ASI poiché potrebbe scegliere di interpretarli e risolverli in modi pericolosi per la sopravvivenza umana. Invece, dobbiamo assegnare all'ASI missioni significative che siano chiaramente definite, gradualmente eseguite e realizzabili data la sua intelligenza teorica futura. Creare missioni ben definite non sarà facile, ma se scritte con attenzione focalizzeranno un'ASI verso un obiettivo che non solo tiene al sicuro l'umanità, ma migliora la condizione umana per tutti.

    Crittografia quantistica: usa un ANI avanzato (intelligenza artificiale ristretta sistema descritto nel capitolo uno) per costruire sistemi di sicurezza digitale privi di errori o bug attorno alla nostra infrastruttura e alle nostre armi critiche, quindi proteggerli ulteriormente dietro la crittografia quantistica che non può essere violata da un attacco di forza bruta. 

    Pillola suicida dell'ANI. Crea un sistema ANI avanzato il cui unico scopo è cercare e distruggere ASI canaglia. Questi programmi a scopo unico serviranno come un "pulsante di spegnimento" che, in caso di successo, eviterà che governi o forze armate debbano disabilitare o far saltare in aria edifici che ospitano ASI.

    Ovviamente queste sono solo le nostre opinioni. La seguente infografica è stata creata da Alexey Turchi, visualizzando a documento di ricerca di Kaj Sotala e Roman V. Yampolskiy, che ha riassunto l'attuale elenco di strategie che i ricercatori di IA stanno prendendo in considerazione quando si tratta di difendersi dall'ASI canaglia.

     

    Il vero motivo per cui abbiamo paura di una superintelligenza artificiale

    Nel corso della vita, molti di noi indossano una maschera che nasconde o reprime gli impulsi, le convinzioni e le paure più profonde per socializzare e collaborare meglio all'interno dei vari circoli sociali e lavorativi che governano le nostre giornate. Ma in certi momenti della vita di tutti, temporaneamente o permanentemente, accade qualcosa che ci permette di spezzare le catene e strappare le maschere.

    Per alcuni, questa forza intermedia può essere semplice come sballarsi o berne uno di troppo. Per altri, può derivare dal potere acquisito tramite una promozione sul lavoro o da un improvviso aumento del tuo status sociale grazie a qualche risultato. E per pochi fortunati, può derivare dal segnare una barca di soldi della lotteria. E sì, denaro, potere e droga possono spesso succedere insieme. 

    Il punto è, nel bene o nel male, chiunque siamo al centro viene amplificato quando le restrizioni della vita si dissolvono.

    Che è ciò che la superintelligenza artificiale rappresenta per la specie umana: la capacità di dissolvere i limiti della nostra intelligenza collettiva per vincere qualsiasi sfida a livello di specie presentata davanti a noi.

    Quindi la vera domanda è: una volta che la prima ASI ci libererà dai nostri limiti, chi ci riveleremo di essere?

    Se noi come specie agiamo per il progresso dell'empatia, della libertà, dell'equità e del benessere collettivo, gli obiettivi verso cui fissiamo la nostra ASI rifletteranno quegli attributi positivi.

    Se noi come specie agiamo per paura, sfiducia, accumulo di potere e risorse, allora l'ASI che creiamo sarà oscuro come quelli che si trovano nelle nostre peggiori storie dell'orrore di fantascienza.

    Alla fine della giornata, noi come società dobbiamo diventare persone migliori se speriamo di creare un'IA migliore.

    Serie Future of Artificial Intelligence

    L'intelligenza artificiale è l'elettricità di domani: il futuro dell'intelligenza artificiale serie P1

    Come la prima intelligenza artificiale generale cambierà la società: il futuro dell'intelligenza artificiale serie P2

    Come creeremo la prima Superintelligenza artificiale: il futuro dell'intelligenza artificiale serie P3

    Una superintelligenza artificiale sterminerà l'umanità: il futuro dell'intelligenza artificiale serie P4

    Gli esseri umani vivranno pacificamente in un futuro dominato dalle intelligenze artificiali?: Future of Artificial Intelligence series P6

    Prossimo aggiornamento programmato per questa previsione

    2023-04-27

    Riferimenti previsionali

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa previsione:

    Come arriviamo al prossimo
    YouTube - Fare clic su Filosofia

    I seguenti collegamenti Quantumrun sono stati referenziati per questa previsione: