Cumu l'omu si difenderanu contr'à una Superintelligenza Artificiale: Futuru di l'intelligenza artificiale P5

CREDITU IMAGE: Quantumrun

Cumu l'omu si difenderanu contr'à una Superintelligenza Artificiale: Futuru di l'intelligenza artificiale P5

    L'annu hè 65,000 aC, è cum'è a Thylacoleo, voi è i vostri tipi eranu i grandi cacciatori di l'antica Australia. Avete giratu a terra liberamente è campatu in equilibriu cù i so cumpagni predatori è prede chì occupavanu a terra à fiancu di voi. E stagioni anu cambiatu, ma u vostru statutu in u regnu di l'animali hè statu senza sfida per u tempu chì voi è i vostri antenati pudianu ricurdà. Allora un ghjornu, i novi ghjunti apparsu.

    A rumuri dicenu chì sò ghjunti da u muru di l'acqua giganti, ma sti criaturi parevanu più còmode di campà in terra. Avete avutu à vede sti criaturi per sè stessu.

    Ci pigliò uni pochi di ghjorni, ma avete infine ghjuntu à a costa. U focu in u celu s'era stallatu, un tempu perfettu per spià sti criaturi, forse ancu pruvate à manghjà una per vede cumu si gustavanu.

    Ne vedete unu.

    Camminava nantu à duie zampe è ùn avia micca pelliccia. Paria debule. Unimpressive. A pena vale a pena a paura chì stava pruvucandu in u regnu.

    Cuminciate à fà u vostru avvicinamentu cù cura cum'è a notte caccia a luce. Vi avvicinate. Allora vi congelate. I rumori forti suonanu è po altri quattru appariscenu fora di a furesta daretu à ellu. Quantu ci sò ?

    A criatura seguita l'altri in l'arburu, è seguite. E più fate, i più strani si sentenu finu à vede ancu più di sti criaturi. Seguite à una distanza mentre esce da a furesta in una chjarea vicinu à a riva. Ci sò parechji di elli. Ma più impurtante, sò tutti tranquillamente seduti intornu à un focu.

    Avete vistu sti incendi prima. In a stagione calda, u focu in u celu visitava qualchì volta a terra è brusgiava foreste intere. Sti criaturi, invece, eranu in qualchì modu cuntrullanu. Chì tippu di criaturi ponu pussede un tali putere?

    Guardi in a distanza. Più venenu sopra u muru d'acqua giganti.

    Fate un passu in daretu.

    Sti criaturi ùn sò micca cum'è l'altri in u regnu. Sò qualcosa di tuttu novu.

    Decidite di lascià è avvisate i vostri parenti. Sì i so numeri crescenu troppu grande, quale sà ciò chì puderia succede.

    ***

    Si crede chì u Thylacoleo s'hè estinta pocu tempu dopu à l'arrivu di l'omu, cù a maiò parte di l'altri megafauna in u cuntinente australianu. Nisun altru predatore di mammiferi apex hà pigliatu u so postu, à menu chì ùn cuntate l'omu in quella categuria.

    A ghjucà fora di sta allegoria hè u focu di stu capitulu di a serie: Una futura superintelligenza artificiale (ASI) ci trasformerà tutti in batterie è poi ci metterà in a Matrix o l'umani scopreranu un modu per evità di diventà vittime di una sci-fi? Trama di a fine di l'IA?

    Finu à a nostra serie nantu à u Futuru di l'Intelligenza Artificiale, avemu scupertu ogni tipu di AI, cumpresu u putenziale pusitivu di una forma particulari di AI, l'ASI: un esse artificiale chì l'intelligenza futura ci farà s'assumiglia furmicule in paraguni.

    Ma quale hà da dì chì un esse cusì intelligente accetterebbe piglià ordini da l'omu per sempre. Chì faremu se e cose vanu à u sudu ? Cumu si difendemu contr'à un ASI rogue ?

    In questu capitulu, taglieremu l'hype falsu - almenu in quantu à i periculi di u "livellu di estinzione umana" è fucalizza nantu à l'opzioni realistiche di autodifesa dispunibili per i guverni mundiali.

    Pudemu piantà tutte e più ricerche in una superintelligenza artificiale?

    Visti i risichi putenziali chì un ASI puderia portà à l'umanità, a prima dumanda ovvia à dumandà hè: Ùn pudemu micca solu piantà tutte e ricerche più in AI? O almenu pruibisce ogni ricerca chì ci ponu avvicinassi periculosamente à creà un ASI?

    Risposta corta: No.

    Risposta longa: Fighjemu i diversi attori implicati quì.

    À u livellu di ricerca, ci sò troppu circadori AI oghje da troppu startups, cumpagnie è università in u mondu. Se una sucietà o un paese decide di limità i so sforzi di ricerca in IA, cuntinueghjanu solu in altrò.

    Intantu, e cumpagnie più preziose di u pianeta facenu a so furtuna cù a so applicazione di sistemi AI à e so attività specifiche. A dumandalli di piantà o limità u so sviluppu di l'arnesi AI hè simile à dumandà li di piantà o limità a so crescita futura. Finanziariamente, questu minaccia a so attività à longu andà. Legalmente, e corporazioni anu una rispunsabilità fiduciaria di custruisce continuamente u valore per i so stakeholder; chì significa chì ogni azzione chì limitaria a crescita di quellu valore puderia purtà à un prucessu. È se un puliticu hà pruvatu à limità a ricerca di l'IA, allora queste corporazioni giganti paganu solu i tariffi di lobbying necessarii per cambià a so mente o a mente di i so culleghi.

    Per u cummattimentu, cum'è i terroristi è i cumbattenti di a libertà in u mondu anu utilizatu tattiche di guerriglia per luttà contr'à militari megliu finanziati, e nazioni più chjuche anu incitatu à utilizà l'AI cum'è un vantaghju tatticu simili contr'à e nazioni più grande chì ponu avè una quantità di vantaghji militari. In listessu modu, per i militari superiori, cum'è quelli chì appartenenu à i Stati Uniti, a Russia è a Cina, a custruzzione di un ASI militare hè uguale à avè un arsenale di armi nucleari in a vostra sacchetta posteriore. In altre parolle, tutti i militari continuanu à finanzà l'AI solu per esse pertinenti in u futuru.

    E i guverni ? In verità, a maiò parte di i pulitici in questi ghjorni (2018) sò tecnulugichi analfabeti è anu pocu capiscenu di ciò chì l'AI hè o u so potenziale futuru - questu li faci faciuli di manipulà da l'interessi corporativi.

    È à u livellu glubale, cunzidira quantu era difficiule di cunvince i guverni mundiali di firmà u 2015 accordu Paris per affruntà u cambiamentu climaticu - è una volta firmati, assai di l'obligazioni ùn eranu mancu vincolanti. Micca solu, u cambiamentu climaticu hè un prublema chì a ghjente sperimenta fisicamente in u mondu per via di eventi climatichi sempre più frequenti è severi. Avà, quandu si parla d'accordu à i limiti di l'IA, questu hè un prublema chì hè largamente invisibule è à pena comprensibile per u publicu, cusì bona furtuna per uttene l'acquistu per ogni tipu di "Accordu di Parigi" per limità l'AI.

    In altri palori, ci sò troppu interessi à a ricerca di l'AI per i so scopi per piantà ogni ricerca chì pò eventualmente guidà à un ASI. 

    Pudemu ingabbia una superintelligenza artificiale?

    A prossima quistione ragiunate hè chì pudemu ingaghja o cuntrullà un ASI una volta chì inevitabbilmente creemu unu? 

    Risposta corta: Di novu, nò.

    Risposta longa: A tecnulugia ùn pò esse cuntenuta.

    Per unu, basta à cunsiderà i millaie à milioni di sviluppatori web è informatichi in u mondu chì constantemente produci novi software o novi versioni di software esistenti. Pudemu onestamente dì chì ognuna di e so versioni di software hè 100 per centu senza bug? Questi bug sò ciò chì i pirate prufessiunali utilizanu per arrubbari l'infurmazioni di carte di creditu di milioni o i secreti classificati di e nazioni - è questi sò pirate umani. Per un ASI, assumendu chì hà avutu un incitamentu per scappà di a so gabbia digitale, allora u prucessu di truvà bug è sfondate u software seria una brisa.

    Ma ancu s'ellu un squadra di ricerca AI hà capitu un modu per boxà un ASI, questu ùn significa micca chì i prossimi 1,000 squadre l'anu da capisce ancu o esse incentivati ​​à aduprà.

    Ci hà da piglià miliardi di dollari è forse ancu decennii per creà un ASI. E corporazioni o guverni chì invistenu stu tipu di soldi è tempu aspettanu un ritornu significativu di u so investimentu. È per un ASI per furnisce stu tipu di ritornu - sia per ghjucà à u mercatu di borsa o inventà un novu pruduttu di miliardi di dollari o pianificà una strategia vincente per cumbatte un esercitu più grande - avarà bisognu di accessu liberu à un settore di dati gigante o ancu à Internet. stessu per pruduce quelli ritorni.

    È una volta chì un ASI accede à e rete di u mondu, ùn ci hè micca guarantisci chì pudemu ritruvà in a so gabbia.

    Una superintelligenza artificiale pò amparà à esse bè?

    Avà, i circadori di l'AI ùn sò micca preoccupati chì un ASI diventerà male. Tuttu u male, u tropu di sci-fi AI hè solu l'omu antropomorfizatu di novu. Un futuru ASI ùn serà nè bè nè male - cuncetti umani - simpricimenti amorali.

    L'assunzione naturale allora hè chì, datu questa slate etica in biancu, i circadori AI ponu prugramà in i primi codici etichi ASI chì sò in linea cù i nostri per ùn finisce micca unleashing Terminators nantu à noi o turnendu tutti in batterie Matrix.

    Ma sta supposizione si basa in una supposizione secondaria chì i circadori AI sò ancu esperti in etica, filusufìa è psiculugia.

    In verità, a maiò parte ùn sò micca.

    Sicondu u psicologu cognitivu è l'autore, Steven Pinker, sta realità significa chì u compitu di codificà l'etica pò sbaglià in una varietà di modi diffirenti.

    Per esempiu, ancu i ricercatori di l'AI megliu intenzioni ponu inadvertitamente codificà in questi codici etichi ASI mal pensati chì in certi scenarii ponu causà l'ASI per agisce cum'è un sociopatu.

    In listessu modu, ci hè una probabilità uguale chì un ricercatore AI prugrami codici etichi chì includenu i preghjudizii innati di u ricercatore. Per esempiu, cumu si comporta un ASI s'ellu hè custruitu cù l'etica derivata da una perspettiva conservadora versus liberale, o da una tradizione buddista versus cristiana o islamica?

    Pensu chì vede u prublema quì: Ùn ci hè micca un settore universale di morale umana. Se vulemu chì a nostra ASI agisce per un codice eticu, da induve vene ? Chì regule includemu è escludemu? Quale decide ?

    O dicemu chì questi circadori AI creanu un ASI chì hè perfettamente in linea cù e norme è e lege culturali muderni di l'oghje. Dopu impieghemu stu ASI per aiutà à e burocrazie federali, statali/provinciali è municipali à funziunà in modu più efficaci è à rinfurzà megliu sti normi è leggi (un casu d'usu prubabile per un ASI per via). Ebbè, chì succede quandu a nostra cultura cambia?

    Imagine chì una ASI hè stata creata da a Chjesa Cattolica à l'altitudine di u so putere durante l'Europa Medievale (1300-1400) cù u scopu di aiutà a chjesa à gestisce a pupulazione è assicurendu una stretta aderenza à u dogma religiosu di l'epica. Seculi dopu, e donne avarianu i stessi diritti ch'elli facenu oghje ? E minurità seranu prutette ? Saria prumuvutu a libertà di spressione ? A separazione di a chjesa è di u statu serà infurzata? Scienza muderna?

    In altre parolle, vulemu imprigionà l'avvene à a morale è à i custumi d'oghje ?

    Un approcciu alternativu hè unu spartutu da Colin Allen, coautore di u libru, Macchine Morale: Insegnamentu à i Robots Right From Wrong. Invece di pruvà à codificà e regule etiche rigide, avemu l'ASI amparà l'etica è a moralità cumuni in a listessa manera chì l'omu facenu, attraversu l'esperienza è l'interazzione cù l'altri.

    U prublema quì, però, hè chì i circadori AI capiscenu micca solu cumu insegnà à un ASI i nostri normi culturali è etichi attuali, ma ancu cumu si adattanu à e novi normi culturali cum'è si sviluppanu (qualcosa chjamata "normatisità indiretta"), allora cumu. questu ASI decide di evoluzione a so cunniscenza di e norme culturali è etiche diventa imprevisible.

    È questu hè a sfida.

    Da un latu, i circadori AI ponu pruvà à codificà standardi o reguli etici stretti in l'ASI per pruvà à cuntrullà u so cumpurtamentu, ma risicate cunsiquenzi impreviste chì sò introdutte da codificazione sloppy, preghjudiziu involontariu è norme suciali chì un ghjornu pò esse obsolete. Per d 'altra banda, pudemu pruvà à furmà l'ASI per amparà à capisce l'etica è a morale umana in una manera chì hè uguale o superiore à a nostra propria intelligenza è poi sperendu chì pò evoluzione accuratamente a so intelligenza di l'etica è a morale cum'è a sucità umana avanza. avanti per i decennii è i seculi chì venenu.

    In ogni modu, ogni tentativu di allineà i scopi di l'ASI cù i nostri propiu presenta un gran risicu.

    E se i cattivi attori creanu apposta superintelligenza artificiale male?

    In vista di u trenu di pensamentu delineatu finu à avà, hè una quistione ghjusta di dumandà s'ellu hè pussibule per un gruppu terrorista o nazione rogue di creà un ASI "male" per i so scopi.

    Questu hè assai pussibule, soprattuttu dopu chì a ricerca implicata cù a creazione di un ASI diventa dispunibule in linea in qualchì manera.

    Ma cum'è insinuatu prima, i costi è l'expertise implicati in a creazione di u primu ASI seranu enormi, chì significheghja chì u primu ASI serà probabilmente creatu da una urganizazione chì hè cuntrullata o assai influenzata da una nazione sviluppata, prubabilmente i Stati Uniti, a Cina è u Giappone ( A Corea è unu di i principali paesi di l'UE sò long shots).

    Tutti questi paesi, mentri i cuncurrenti, ognunu anu un forte incitamentu ecunomicu per mantene l'ordine mundiale - l'ASI chì creanu rifletteranu quellu desideriu, ancu mentre prumove l'interessi di e nazioni chì si allineanu.

    In più di questu, l'intelligenza teorica è u putere di un ASI hè uguale à a putenza di calculu à quale accede, vale à dì l'ASI da e nazioni sviluppate (chì ponu permette un munzeddu di miliardi di dollari). supercomputer) avarà un vantaghju enormu annantu à l'ASI da nazioni più chjuche o gruppi criminali indipendenti. Inoltre, ASI cresce più intelligente, più rapidamente cù u tempu.

    Dunque, datu stu principiu di punta, cumminatu cù un accessu più grande à u putere di l'informatica cruda, se una urganizazione / nazione oscura crea un ASI periculosu, l'ASI di e nazioni sviluppate l'ammazzanu o l'ingabbianu.

    (Questa linea di pensamentu hè ancu per quessa chì certi circadori AI crede chì ci sarà sempre solu da un ASI in u pianeta, postu chì u primu ASI averà un tale capu in tutti i ASI successivi chì puderia vede l'ASI futuri cum'è minacce per esse uccisi. Questa hè ancu una altra ragione per quessa chì e nazioni finanzianu a ricerca cuntinuata in AI, solu in casu chì diventerà una cumpetizione "primu postu o nunda".)

    L'intelligenza ASI ùn accelerà micca o esplusione cum'è pensemu

    Ùn pudemu micca impedisce chì un ASI sia creatu. Ùn pudemu micca cuntrullà sanu sanu. Ùn pudemu micca esse sicuri chì agirà sempre in linea cù i nostri costumi cumuni. Geez, avemu cuminciatu à sona cum'è i genitori di l'helicopteru quì!

    Ma ciò chì separa l'umanità da u vostru genitore supraprotettivu tipicu hè chì damu nascita à un essendu chì a so intelligenza crescerà assai oltre a nostra. (È nò, ùn hè micca listessu chì quandu i vostri parenti vi dumandanu di riparà u so urdinatore ogni volta chì vene in casa per una visita.) 

    In i capituli precedenti di questa serie di futuri di l'intelligenza artificiale, avemu esploratu perchè i circadori AI pensanu chì l'intelligenza di un ASI crescerà fora di cuntrollu. Ma quì, scoppiaremu quella bolla... un pocu. 

    Vede, l'intelligenza ùn si crea micca solu da l'aria magre, hè sviluppata per l'esperienza chì hè furmatu da stimuli esterni.  

    In altre parolle, pudemu programà un AI cù u putinziali per diventà super intelligente, ma à menu chì ùn carichemu una tonna di dati o li dete un accessu illimitatu à Internet o ancu solu dà un corpu roboticu, ùn ampararà nunda per ghjunghje à quellu potenziale. 

    È ancu s'ellu ùn accede à unu o più di quelli stimuli, a cunniscenza o l'intelligenza implica più cà solu a cullizzioni di dati, implica u metudu scientificu - fendu una osservazione, furmendu una quistione, una ipotesi, cunducendu esperimenti, fà una cunclusione, risciacquare. è ripetite per sempre. Soprattuttu se sti esperimenti implicanu cose fisiche o osservà l'esseri umani, i risultati di ogni esperimentu puderanu piglià settimane, mesi o anni per cullà. Questu ùn hà ancu cunsiderà i soldi è e risorse prima necessarie per realizà sti esperimenti, soprattuttu s'ellu implica a custruzzione di un novu telescopiu o fabbrica. 

    In altri palori, sì, un ASI ampararà rapidamente, ma l'intelligenza ùn hè micca magia. Ùn pudete micca solu cunnessu un ASI à un supercomputer è aspettate ch'ellu sia onnipotente. Ci saranu limitazioni fisiche à l'acquistu di dati da l'ASI, vale à dì chì ci saranu limitazioni fisiche à a velocità chì cresce più intelligente. Queste limitazioni daranu à l'umanità u tempu chì hà bisognu di mette i cuntrolli necessarii nantu à questu ASI s'ellu principia à agisce fora di i scopi umani.

    Una superintelligenza artificiale hè solu periculosa s'ellu esce in u mondu reale

    Un altru puntu chì hè persu in tuttu stu dibattitu di periculu di l'ASI hè chì questi ASI ùn esisteranu micca. Anu avè una forma fisica. È tuttu ciò chì hà una forma fisica pò esse cuntrullata.

    Prima, per un ASI per ghjunghje à u so potenziale di intelligenza, ùn pò micca esse allughjatu in un corpu roboticu unicu, postu chì questu corpu limitaria u so potenziale di crescita di l'informatica. (Hè per quessa chì i corpi di robot seranu più adattati per l'AGI o intelligenza artificiale generale spiegata in u capitulu dui di sta serie, cum'è Dati da Star Trek o R2D2 da Star Wars. Essari intelligenti è capaci, ma cum'è l'omu, anu un limitu à quantu intelligenti ponu esse.)

    Questu significa chì questi futuri ASI esisteranu assai prubabilmente in un supercomputer o una rete di supercomputer chì sò stessi allughjati in grandi cumplessi di edifici. Sè un ASI gira taccu, l'omu pò sia disattivà u putere à questi edifici, taglià da Internet, o solu bombardà questi edifici direttamente. Caru, ma fattibile.

    Ma allora pudete dumandà, questi ASI ùn ponu micca riplicà elli stessi o back up? Iè, ma a dimensione di u schedariu crudu di questi ASI serà prubabilmente cusì grande chì l'unichi servitori chì ponu gestisce li appartenenu à grandi corporazioni o guverni, vale à dì chì ùn saranu micca difficiuli di caccià.

    Una superintelligenza artificiale pò scatenà una guerra nucleare o una nova pesta?

    À questu puntu, pudete esse ripensendu à tutti i spettaculi di sci-fi è i filmi chì avete vistu cresce è pensendu chì questi ASI ùn sò micca stati in i so supercomputer, anu fattu un veru dannu in u mondu reale!

    Ebbè, rompemu questi.

    Per esempiu, chì si un ASI minaccia u mondu reale trasfurmendu in qualcosa cum'è un ASI Skynet da a franchise di film, The Terminator. In questu casu, l'ASI avissi bisognu sicretu ingannà un cumplessu industriale militare interu da una nazione avanzata in custruì fabbriche giganti chì ponu scacciate milioni di robot drone assassini per fà a so offerta male. In questu ghjornu è età, questu hè un stretchimentu.

    Altre pussibulità includenu un ASI chì minaccia l'omu cù a guerra nucleare è armi biologiche.

    Per esempiu, un ASI manipule in qualche modu l'operatori o pirate in i codici di lanciamentu chì cumandanu l'arsenale nucleare di una nazione avanzata è lancia un primu attaccu chì furzà i paesi opposti à ritruvà cù e so propiu opzioni nucleari (di novu, rehashing u backstory di Terminator). O se un ASI pirateghja in un laboratoriu farmaceuticu, manipula u prucessu di fabricazione, è avvelena milioni di pilule mediche o scatena un focu mortale di qualchì super virus.

    Prima, l'opzione nucleare hè fora di u pianu. I supercomputer muderni è futuri sò sempre custruiti vicinu à i centri (città) di influenza in ogni paese, vale à dì i primi miri à esse attaccati durante ogni guerra. Ancu s'è i supercomputer d'oghje si sminuiscenu à a dimensione di l'escriptori, sti ASI anu sempre una presenza fisica, chì significa chì esistenu è crescenu, anu bisognu di un accessu ininterrottu à i dati, a putenza di computing, l'electricità, è altre materie prime, tuttu ciò chì seria severamente. deteriorate dopu una guerra nucleare globale. (Per esse ghjustu, se un ASI hè creatu senza un "instintu di sopravvivenza", allora sta minaccia nucleare hè un periculu assai veru).

    Questu significa - novu, assumendu chì l'ASI hè programatu per pruteggiri - chì hà da travaglià attivamente per evità ogni incidente nucleare catastròficu. Un tipu cum'è a duttrina di distruzzione mutualmente assicurata (MAD), ma appiicata à l'IA.

    È in u casu di pills avvelenati, forse alcune centinaie di persone mureranu, ma i sistemi di sicurezza farmaceutica muderni vederanu i buttigli di pillole contaminati da i scaffali in pochi ghjorni. Intantu, e misure muderne di cuntrollu di l'epidemie sò abbastanza sofisticate è sò megliu cù ogni annu chì passa; l'ultimu focu maiò, u focu di l'Ebola di l'Africa Occidentale di u 2014, ùn durò più di pochi mesi in a maiò parte di i paesi è pocu menu di trè anni in i paesi menu sviluppati.

    Allora, s'ellu hè furtunatu, un ASI pò sguassate uni pochi milioni cù un focu virali, ma in un mondu di nove miliardi da u 2045, questu seria relativamente insignificante è ùn valerà micca u risicu di esse eliminatu.

    In altre parolle, cù ogni annu chì passa, u mondu sviluppa sempre più salvaguardi contr'à una gamma sempre più larga di pussibuli minacce. Un ASI pò fà una quantità significativa di danni, ma ùn finisce micca l'umanità, salvu chì l'aiutemu attivamente à fà.

    Difendendu contr'à una superintelligenza artificiale rogue

    À questu puntu, avemu trattatu una serie di idee sbagliate è esagerazioni annantu à l'ASI, è ancu, i critichi resteranu. Fortunatamente, da a maiò parte di l'estimazioni, avemu decennii prima chì u primu ASI entre in u nostru mondu. È datu u numeru di grandi menti chì travaglianu oghje nantu à sta sfida, e probabilità chì avemu da amparà cumu difendemu da l'ASI rogue in modu chì pudemu prufittà di tutte e soluzioni chì un ASI amichevule pò creà per noi.

    Da a perspettiva di Quantumrun, a difesa contr'à u peghju scenariu ASI implicarà l'allineamentu di i nostri interessi cù l'ASI.

    MAD per l'IA: Per difende contr'à u peghju scenariu, e nazioni anu bisognu di (1) creà un "instintu di sopravvivenza" eticu in i so ASI militari rispettivi; (2) informanu i so ASI militari rispettivi chì ùn sò micca solu nantu à u pianeta, è (3) situeghjanu tutti i supercomputer è i centri di servitori chì ponu sustene un ASI longu à e coste à poca distanza da qualsiasi attaccu balisticu da una nazione nemica. Stu sona strategicamente pazza, ma simile à a duttrina di Distruzzione Assicurata Mutuamente chì hà impeditu una guerra nucleare all-out trà i Stati Uniti è i Suvietichi, postu chì l'ASI in i lochi geograficamente vulnerabili, pudemu aiutà à assicurà chì prevene attivamente guerri mundiali periculosi, micca solu per salvaguardà a pace globale ma ancu elli stessi.

    Legisla i diritti di IA: Un intellettu superiore inevitabbilmente si ribellu contr'à un maestru inferjuri, hè per quessa chì avemu bisognu di alluntanassi da esigenti una relazione maestru-servitore cù questi ASI à qualcosa di più cum'è un partenariatu mutualmente beneficu. Un passu pusitivu versu stu scopu hè di dà u futuru statutu di persona legale ASI chì li ricunnosce cum'è esseri viventi intelligenti è tutti i diritti chì venenu cun quellu.

    Scola ASI: Qualchese tema o professione serà simplice per un ASI per amparà, ma i sughjetti più impurtanti chì vulemu chì l'ASI ammaistrà sò l'etica è a moralità. I circadori di l'AI anu bisognu di cullaburazione cù i psicologi per cuncepisce un sistema virtuale per furmà un ASI per ricunnosce l'etica positiva è a moralità per ellu stessu senza a necessità di codificà duru ogni tipu di cumandamentu o regula.

    Obiettivi raggiungibili: Finisci tuttu l'odiu. Finisce tutte e soffrenze. Quessi sò esempi di scopi terribilmente ambigui senza soluzione chjara. Sò ancu scopi periculosi per assignà à un ASI postu chì puderia sceglie di interpretà è risolve in modi chì sò periculosi per a sopravvivenza umana. Invece, avemu bisognu di assignà à l'ASI missioni significative chì sò chjaramente definite, eseguite gradualmente è realizabili datu u so intellettu futuru teoricu. A creazione di missioni ben definite ùn serà micca faciule, ma s'ellu hè scrittu pensativamente, focalizeghjanu un ASI versu un scopu chì ùn solu mantene l'umanità sicura, ma migliurà a cundizione umana per tutti.

    Cifratura quantistica: Aduprate un ANI avanzatu (intelligenza artificiale stretta (sistema descrittu in u capitulu unu) per custruisce sistemi di sicurezza digitale senza errore / senza bug intornu à a nostra infrastruttura critica è l'armi, poi prutegge ancu più daretu à a criptografia quantistica chì ùn pò micca esse piratata da un attaccu di forza bruta. 

    ANI pillola suicida. Crea un sistema ANI avanzatu chì u solu scopu hè di circà è distrughje l'ASI rogue. Questi prugrammi unicu scopu serviranu cum'è un "buttone off" chì, in casu di successu, eviterà chì i guverni o l'armata anu da disattivà o salta l'edificazioni chì ospitanu ASI.

    Di sicuru, queste sò solu e nostre opinioni. A seguente infografica hè stata creata da Alexey Turchin, visualizazione a carta, a ricerca da Kaj Sotala è Roman V. Yampolskiy, chì riassuntu u listinu attuale di strategie circadori AI sò cunsidirari quandu si veni a difenda contru à rogue ASI.

     

    U veru mutivu chì avemu a paura di una superintelligenza artificiale

    Passendu per a vita, assai di noi portanu una maschera chì nasconde o reprime i nostri impulsi più profondi, credenze è paure per socializà megliu è collaboranu in i diversi circoli suciali è di travagliu chì guvernanu i nostri ghjorni. Ma in certi punti di a vita di tutti, sia temporaneamente o permanentemente, succede qualcosa chì ci permette di rompe e nostre catene è strappate e nostre maschere.

    Per alcuni, sta forza intervenente pò esse simplice quant'è s'alza o beie una troppu. Per altri, pò vene da u putere acquistatu via una prumuzione à u travagliu o un colpu bruscu in u vostru statutu suciale grazia à qualchì realizazione. È per un pocu furtunatu, pò vene da scoring una barca di soldi di lotterie. È iè, soldi, putere è droghe ponu spessu accade inseme. 

    U puntu hè, per u bonu o u male, quellu chì simu in u core hè amplificatu quandu e restrizioni di a vita si scioglie.

    ddu hè ciò chì a superintelligenza artificiale rapprisenta à a spezia umana - a capacità di scioglie e limitazioni di a nostra intelligenza cullettiva per cunquistà ogni sfida à livellu di spezie presentata davanti à noi.

    Allora a vera quistione hè: Una volta chì u primu ASI ci libera di e nostre limitazioni, quale avemu da esse revelatu?

    Sè noi cum'è una spezia agisce versu l'avanzamentu di l'empatia, a libertà, l'equità è u benessere cullettivu, allora i scopi chì avemu stabilitu u nostru ASI rifletteranu quelli attributi pusitivi.

    Se noi cum'è una spezia agisce per paura, sfiducia, l'accumulazione di putere è risorse, allora l'ASI chì creemu serà scuru cum'è quelli chì si trovanu in i nostri peggiori stori di horror di sci-fi.

    À a fine di u ghjornu, noi cum'è una sucità avemu bisognu di diventà persone megliu se speramu di creà una IA megliu.

    Serie Future of Artificial Intelligence

    L'Intelligenza Artificiale hè l'electricità di dumane: Future of Artificial Intelligence series P1

    Cumu a prima Intelligenza Artificiale Generale cambierà a sucietà: Future of Artificial Intelligence Series P2

    Cumu creeremu a prima serie Artificial Superintelligenc: Future of Artificial Intelligence serie P3

    Una Superintelligenza Artificiale sterminerà l'umanità: Future of Artificial Intelligence series P4

    L'omu viveranu in pace in un futuru duminatu da l'intelligenza artificiale?: Future of Artificial Intelligence serie P6

    A prossima aghjurnazione prevista per sta previsione

    2023-04-27

    Referenze di previsione

    I seguenti ligami populari è istituzionali sò stati riferiti per questa previsione:

    lu econumista
    Cumu ghjunghjemu à u prossimu

    I seguenti ligami Quantumrun sò stati riferiti per questa previsione: