Kiel homoj defendos Artefaritan Superinteligentecon: Estonteco de artefarita inteligenteco P5

BILDA KREDITO: Quantumrun

Kiel homoj defendos Artefaritan Superinteligentecon: Estonteco de artefarita inteligenteco P5

    La jaro estas 65,000 a.K., kaj kiel a Thylacoleo, vi kaj via speco estis la grandaj ĉasistoj de antikva Aŭstralio. Vi vagis la teron libere kaj vivis en ekvilibro kun la kunpredantoj kaj predo kiuj okupis la teron apud vi. La sezonoj alportis ŝanĝon, sed via statuso en la besta regno restis senkontesta tiel longe kiel vi kaj viaj prapatroj povis memori. Tiam iun tagon aperis novuloj.

    Onidiro diras, ke ili alvenis de la giganta akvomuro, sed ĉi tiuj estaĵoj ŝajnis pli komfortaj vivi surtere. Vi devis mem vidi ĉi tiujn estaĵojn.

    Necesis kelkaj tagoj, sed vi finfine atingis la marbordon. La fajro en la ĉielo ekbrulis, perfekta tempo por spioni ĉi tiujn estaĵojn, eble eĉ provi manĝi unu por vidi kiel ili gustumis.

    Vi ekvidas unu.

    Ĝi marŝis sur du kruroj kaj ne havis felon. Ĝi aspektis malforta. Neimpresa. Apenaŭ valoras la timon, kiun ĝi kaŭzis inter la regno.

    Vi komencas zorge fari vian alproksimiĝon dum la nokto forpelas la lumon. Vi proksimiĝas. Tiam vi frostas. Laŭtaj bruoj sonoras kaj tiam kvar pliaj el ili aperas el la arbaro malantaŭ ĝi. Kiom da estas?

    La estaĵo sekvas la aliajn en la arbolimon, kaj vi sekvas. Kaj ju pli vi faras, des pli strangaj sonoj vi aŭdas ĝis vi ekvidas eĉ pli da ĉi tiuj estaĵoj. Vi sekvas malproksime, kiam ili eliras el la arbaro en maldensejon apud la bordo. Estas multaj el ili. Sed pli grave, ili ĉiuj trankvile sidas ĉirkaŭ fajro.

    Vi jam vidis ĉi tiujn fajrojn. En la varma sezono, la fajro en la ĉielo foje vizitus la teron kaj bruligus tutajn arbarojn. Ĉi tiuj estaĵoj, aliflanke, ili iel regis ĝin. Kiaj estaĵoj povas posedi tian potencon?

    Vi rigardas en la malproksimon. Pliaj venas super la giganta akvomuro.

    Vi faras paŝon malantaŭen.

    Ĉi tiuj estaĵoj ne estas kiel la aliaj en la regno. Ili estas io tute nova.

    Vi decidas foriri kaj averti viajn parencojn. Se iliaj nombroj kreskas tro grandaj, kiu scias kio povus okazi.

    ***

    Estas kredite, ke la Thylacoleo formortis relative mallonga tempo post la alveno de homoj, kune kun la plimulto de la alia megafaŭno sur la aŭstralia kontinento. Neniuj aliaj apeksaj mamulaj predantoj prenis ĝian lokon - tio estas krom se vi nombras homojn en tiu kategorio.

    Ludi ĉi tiun alegorion estas la fokuso de ĉi tiu serio-ĉapitro: Ĉu estonta artefarita superinteligenteco (ASI) transformos nin ĉiujn en bateriojn kaj poste ŝtopos nin en la Matrico aŭ ĉu homoj eltrovos manieron eviti iĝi viktimo de sciencfikcio? AI finjuĝo-intrigo?

    Ĝis nun en nia serio pri la Estonteco de Artefarita Inteligenteco, ni esploris ĉiajn AI, inkluzive de la pozitiva potencialo de aparta formo de AI, la ASI: artefarita estaĵo kies estonta inteligenteco igos nin aspekti kiel formikoj kompare.

    Sed kiu povas diri, ke estaĵo tiel saĝa akceptus preni ordonojn de homoj por ĉiam. Kion ni faros se aferoj iros suden? Kiel ni defendos nin kontraŭ fripona ASI?

    En ĉi tiu ĉapitro, ni trapasos la falsan furoraĵon—almenaŭ kiel ĝi rilatas al la danĝeroj de 'homa formorto'—kaj koncentriĝos pri la realismaj memdefendaj elektoj disponeblaj por mondaj registaroj.

    Ĉu ni povas ĉesigi ĉian pluan esploron pri artefarita superinteligenteco?

    Konsiderante la eblajn riskojn, kiujn ASI povus prezenti al la homaro, la unua evidenta demando por fari estas: Ĉu ni ne povas simple ĉesigi ĉian plian esploradon pri AI? Aŭ almenaŭ malpermesi ajnan esploradon, kiu povas proksimigi nin danĝere al kreado de ASI?

    Mallonga respondo: Ne.

    Longa respondo: Ni rigardu la malsamajn ludantojn implikitajn ĉi tie.

    Sur la esplora nivelo, estas tro da AI-esploristoj hodiaŭ de tro multaj noventreprenoj, kompanioj kaj universitatoj tra la mondo. Se unu firmao aŭ lando decidus limigi siajn AI-esplorajn klopodojn, ili simple daŭrigus aliloke.

    Dume, la plej valoraj kompanioj de la planedo faras sian riĉaĵon per sia aplikado de AI-sistemoj al siaj specifaj entreprenoj. Peti ilin haltigi aŭ limigi ilian disvolviĝon de AI-iloj similas peti ilin ĉesi aŭ limigi ilian estontan kreskon. Finance, ĉi tio minacus ilian longperspektivan komercon. Laŭleĝe, entreprenoj havas fidecan respondecon kontinue konstrui valoron por siaj koncernatoj; tio signifas, ke ĉiu ago, kiu limigus la kreskon de tiu valoro, povus konduki al proceso. Kaj se iu politikisto provus limigi AI-esploradon, tiam ĉi tiuj gigantaj korporacioj simple pagus la necesajn lobiajn kotizojn por ŝanĝi sian menson aŭ la mensojn de siaj kolegoj.

    Por batalo, same kiel teroristoj kaj liberecbatalantoj tra la mondo uzis gerilajn taktikojn por batali kontraŭ pli bone financitaj militistoj, pli malgrandaj nacioj havos instigon uzi AI kiel similan taktikan avantaĝon kontraŭ pli grandaj nacioj, kiuj povas havi kelkajn armeajn avantaĝojn. Same, por ĉefaj militistoj, kiel tiuj apartenantaj al Usono, Rusio kaj Ĉinio, konstrui armean ASI estas egala kun havi arsenalon da nukleaj armiloj en via malantaŭa poŝo. Alivorte, ĉiuj militistoj daŭre financas AI nur por resti gravaj en la estonteco.

    Kiel pri registaroj? Verdire, la plej multaj politikistoj nuntempe (2018) estas teknologie analfabetoj kaj malmulte komprenas, kio estas AI aŭ ĝia estonta potencialo - ĉi tio faciligas ilin manipuli per kompaniaj interesoj.

    Kaj tutmonde, konsideru kiom malfacile estis konvinki mondajn registarojn subskribi la 2015 Parizo Interkonsento por trakti klimatan ŝanĝon—kaj unufoje subskribitaj, multaj el la devoj eĉ ne estis devigaj. Ne nur tio, klimata ŝanĝo estas problemo, kiun homoj fizike spertas tutmonde per ĉiam pli oftaj kaj severaj vetereventoj. Nun, kiam oni parolas pri konsento pri limoj pri AI, ĉi tio estas afero plejparte nevidebla kaj apenaŭ komprenebla por la publiko, do bonŝancon akiri aĉeton por ajna speco de "Pariza Interkonsento" por limigado de AI.

    Alivorte, estas multe tro da interesoj pri esplorado de AI por siaj propraj finoj por ĉesigi ajnan esploradon, kiu eventuale povas konduki al ASI. 

    Ĉu ni povas enkaĝigi artefaritan superinteligentecon?

    La sekva racia demando estas ĉu ni povas enkaĝigi aŭ kontroli ASI post kiam ni neeviteble kreas tian? 

    Mallonga respondo: Denove, ne.

    Longa respondo: Teknologio ne povas esti enhavita.

    Unue, nur konsideru la milojn ĝis milionoj da retaj programistoj kaj komputikistoj en la mondo, kiuj konstante eligas novajn programojn aŭ novajn versiojn de ekzistantaj programoj. Ĉu ni povas honeste diri, ke ĉiu el iliaj programoj estas 100 procentoj sen cimoj? Ĉi tiuj cimoj estas kiujn profesiaj retpiratoj uzas por ŝteli la kreditkartajn informojn de milionoj aŭ la konfidencajn sekretojn de nacioj—kaj ĉi tiuj estas homaj retpiratoj. Por ASI, supozante ke ĝi havis instigon eskapi de sia cifereca kaĝo, tiam la procezo trovi cimojn kaj trarompi programaron estus facila.

    Sed eĉ se AI-esplorteamo eltrovis manieron boksi ASI, tio ne signifas, ke la venontaj 1,000 teamoj ankaŭ eltrovos ĝin aŭ estos instigitaj uzi ĝin.

    Necesos miliardoj da dolaroj kaj eble eĉ jardekoj por krei ASI. La korporacioj aŭ registaroj, kiuj investas ĉi tiun specon de mono kaj tempon, atendos gravan profiton de sia investo. Kaj por ke ASI donu tian revenon—ĉu tio estas por ludi la borsmerkaton aŭ inventi novan produkton de miliardoj da dolaroj aŭ plani venkan strategion por batali kontraŭ pli granda armeo—ĝi bezonos liberan aliron al giganta datumaro aŭ eĉ al Interreto. mem por produkti tiujn rendimentojn.

    Kaj post kiam ASI akiras aliron al la mondaj retoj, ne ekzistas garantioj, ke ni povas reŝtopi ĝin en sian kaĝon.

    Ĉu artefarita superinteligenteco povas lerni esti bona?

    Ĝuste nun, AI-esploristoj ne estas maltrankvilaj pri ASI iĝanta malbona. La tuta malbona, AI sciencfikcia tropo estas nur homoj antropomorfiĝantaj denove. Estonta ASI estos nek bona nek malbona—homaj konceptoj—simple amorala.

    La natura supozo do estas, ke konsiderante ĉi tiun malplenan etikan skribtablon, AI-esploristoj povas programi en la unuajn ASI-etikajn kodojn, kiuj kongruas kun la niaj, por ke ĝi ne finiĝu deĉenigi Terminatorojn sur ni aŭ igi nin ĉiujn en Matrix-kuirilarojn.

    Sed ĉi tiu supozo bakas en sekundara supozo, ke AI-esploristoj ankaŭ estas fakuloj pri etiko, filozofio kaj psikologio.

    Verdire, la plimulto ne estas.

    Laŭ la kogna psikologo kaj aŭtoro, Steven Pinker, ĉi tiu realaĵo signifas, ke la tasko de kodigado de etikoj povas misfunkcii en diversaj malsamaj manieroj.

    Ekzemple, eĉ la plej intencitaj AI-esploristoj povas preterintence kodigi ĉi tiujn ASI malbone pripensitajn etikajn kodojn, kiuj en certaj scenaroj povas kaŭzi la ASI agi kiel socipato.

    Same, estas egala verŝajneco, ke esploristo de AI programas etikajn kodojn, kiuj inkluzivas la denaskajn biasojn de la esploristo. Ekzemple, kiel ASI kondutus se konstruita kun etiko derivita de konservativa kontraŭ liberala perspektivo, aŭ de budhano kontraŭ kristana aŭ islama tradicio?

    Mi pensas, ke vi vidas la aferon ĉi tie: Ne ekzistas universala aro de homaj moraloj. Se ni volas, ke nia ASI agu per etika kodo, de kie ĝi venos? Kiajn regulojn ni inkluzivas kaj ekskludas? Kiu decidas?

    Aŭ ni diru, ke ĉi tiuj esploristoj pri AI kreas ASI, kiu perfekte konformas al la hodiaŭaj modernaj kulturaj normoj kaj leĝoj. Ni tiam uzas ĉi tiun ASI por helpi federaciajn, ŝtatajn/provincajn kaj municipajn burokratiojn funkcii pli efike kaj pli bone plenumi ĉi tiujn normojn kaj leĝojn (verŝajna uzokazo por ASI cetere). Nu, kio okazas kiam nia kulturo ŝanĝiĝas?

    Imagu, ke ASI estis kreita de la Romkatolika Eklezio ĉe la apogeo de sia potenco dum Mezepoka Eŭropo (1300-1400s) kun la celo helpi la eklezion administri la loĝantaron kaj certigi striktan sekvadon al la religia dogmo de la tempo. Jarcentojn poste, ĉu virinoj ĝuus la samajn rajtojn kiel ili hodiaŭ? Ĉu malplimultoj estus protektitaj? Ĉu liberesprimo estus antaŭenigita? Ĉu la apartigo de eklezio kaj ŝtato estus devigita? Moderna scienco?

    Alivorte, ĉu ni volas malliberigi la estontecon al la nunaj moroj kaj kutimoj?

    Alternativa aliro estas unu dividita fare de Colin Allen, kunaŭtoro de la libro, Moralaj Maŝinoj: Instruante Robotojn Ĝuste De Malĝuste. Anstataŭ provi kodi rigidajn etikajn regulojn, ni havas la ASI lernas komunan etikon kaj moralon en la sama maniero kiel homoj faras, per sperto kaj interagoj kun aliaj.

    La problemo ĉi tie, tamen, estas se AI-esploristoj eltrovas ne nur kiel instrui al ASI niajn nunajn kulturajn kaj etikajn normojn, sed ankaŭ kiel adaptiĝi al novaj kulturaj normoj kiam ili ekestas (io nomata 'nerekta normigado'), tiam kiel ĉi tiu ASI decidas evolui sian komprenon pri kulturaj kaj etikaj normoj fariĝas neantaŭvidebla.

    Kaj jen la defio.

    Unuflanke, AI-esploristoj povas provi kodi striktajn etikajn normojn aŭ regulojn en la ASI por provi kontroli ĝian konduton, sed riski neantaŭviditajn sekvojn enkondukitajn de malzorgema kodigo, neintencita biaso kaj sociaj normoj, kiuj iam povas malnoviĝi. Aliflanke, ni povas provi trejni la ASI por lerni kompreni homan etikon kaj moralon en maniero kiu estas egala aŭ supera al nia propra kompreno kaj tiam esperi ke ĝi povas precize evolui sian komprenon de etiko kaj moralo dum homa socio progresas. antaŭen dum la venontaj jardekoj kaj jarcentoj.

    Ĉiuokaze, ajna provo vicigi la celojn de ASI kun niaj propraj prezentas grandan riskon.

    Kio se malbonaj aktoroj intence kreas malbonan artefaritan superinteligentecon?

    Konsiderante la pensmanieron skizitan ĝis nun, estas justa demando demandi ĉu estas eble por terorista grupo aŭ fripona nacio krei "malbonan" ASI por siaj propraj celoj.

    Ĉi tio estas tre ebla, precipe post kiam esplorado implikita kun kreado de ASI fariĝas disponebla interrete iel.

    Sed kiel aludite antaŭe, la kostoj kaj kompetenteco implikitaj en kreado de la unua ASI estos enormaj, tio signifas, ke la unua ASI verŝajne estos kreita de organizo, kiu estas kontrolita aŭ forte influita de evoluinta nacio, verŝajne Usono, Ĉinio kaj Japanio ( Koreio kaj unu el la gvidaj EU-landoj estas longaj pafoj).

    Ĉiuj ĉi tiuj landoj, dum konkurantoj, ĉiu havas fortan ekonomian instigon konservi mondan ordon - la ASI-oj kiujn ili kreas reflektos tiun deziron, eĉ dum reklamado de la interesoj de la nacioj kun kiuj ili aliĝas.

    Aldone al tio, la teoria inteligenteco kaj potenco de ASI estas egala al la komputika potenco al kiu ĝi akiras aliron, kio signifas la ASIojn de evoluintaj nacioj (kiuj povas pagi amason da miliardoj da dolaroj). superkomputiloj) havos grandegan avantaĝon super ASIoj de pli malgrandaj nacioj aŭ sendependaj krimaj grupoj. Ankaŭ, ASIoj kreskas pli inteligentaj, pli rapide laŭlonge de la tempo.

    Do, donita ĉi tiun antaŭan komencon, kombinita kun pli granda aliro al kruda komputika potenco, se ombra organizo/nacio kreus danĝeran ASI, la ASIoj de evoluintaj nacioj aŭ mortigos ĝin aŭ enkaĝos ĝin.

    (Ĉi tiu pensmaniero ankaŭ estas kial kelkaj AI-esploristoj opinias, ke estos nur de unu ASI sur la planedo, ĉar la unua ASI havos tian avantaĝon super ĉiuj sukcesantaj ASI-oj, ke ĝi eble vidos estontajn ASI-ojn kiel minacojn por esti mortigitaj. prevente. Ĉi tio estas ankoraŭ alia kialo, kial nacioj financas daŭran esploradon en AI, ĉiaokaze ĝi fariĝos konkurso de "unua loko aŭ nenio".)

    ASI-inteligenteco ne akcelos aŭ eksplodos kiel ni pensas

    Ni ne povas malhelpi ASI esti kreita. Ni ne povas regi ĝin tute. Ni ne povas esti certaj, ke ĝi ĉiam agos konforme al niaj komunaj kutimoj. Geed, ni komencas soni kiel helikoptergepatroj ĉi tie!

    Sed kio apartigas la homaron de via tipa troprotekta gepatro estas ke ni naskas estaĵon, kies inteligenteco kreskos multe preter la nia. (Kaj ne, ĝi ne estas la sama kiel kiam viaj gepatroj petas vin ripari sian komputilon kiam ajn vi venas hejmen por viziti.) 

    En antaŭaj ĉapitroj de ĉi tiu serio de estonteco de artefarita inteligenteco, ni esploris kial esploristoj de AI pensas, ke la inteligenteco de ASI kreskos preter kontrolo. Sed ĉi tie, ni krevos tiun vezikon... ia. 

    Vi vidas, inteligenteco ne nur kreas sin el maldika aero, ĝi estas disvolvita per sperto kiu estas formita de eksteraj stimuloj.  

    Alivorte, ni povas programi AI kun la potencialo por iĝi superinteligenta, sed krom se ni alŝutas en ĝi multon da datumoj aŭ ne donas al ĝi senliman aliron al Interreto aŭ eĉ nur donos al ĝi robotkorpon, ĝi ne lernos ion ajn por atingi tiun potencialon. 

    Kaj eĉ se ĝi akiras aliron al unu aŭ pli el tiuj stimuloj, scio aŭ inteligenteco implikas pli ol nur kolekti datumojn, ĝi implikas la sciencan metodon—farante observon, formi demandon, hipotezon, fari eksperimentojn, fari konkludon, lavu. kaj ripetu eterne. Precipe se ĉi tiuj eksperimentoj implikas fizikajn aferojn aŭ observadon de homoj, la rezultoj de ĉiu eksperimento povus preni semajnojn, monatojn aŭ jarojn por kolekti. Ĉi tio eĉ ne konsideras la monon kaj krudajn rimedojn necesajn por efektivigi ĉi tiujn eksperimentojn, precipe se ili implikas konstrui novan teleskopon aŭ fabrikon. 

    Alivorte, jes, ASI lernos rapide, sed inteligenteco ne estas magio. Vi ne povas simple ligi ASI al superkomputilo kaj atendi, ke ĝi estu ĉioscia. Ekzistos fizikaj limoj al la akiro de la ASI de datenoj, signifante ke ekzistos fizikaj limoj al la rapideco ke ĝi iĝas pli inteligenta. Ĉi tiuj limoj donos al la homaro la tempon, kiun ĝi bezonas por meti la necesajn kontrolojn sur ĉi tiun ASI, se ĝi komencos agadi kontraŭ homaj celoj.

    Artefarita superinteligenteco estas danĝera nur se ĝi eliras en la realan mondon

    Alia punkto, kiu estas perdita en ĉi tiu tuta ASI-danĝerdebato, estas ke ĉi tiuj ASI-oj ne ekzistos en ambaŭ. Ili havos fizikan formon. Kaj ĉio, kio havas fizikan formon, povas esti kontrolita.

    Unue, por ke ASI atingu sian inteligentan potencialon, ĝi ne povas esti loĝigita ene de ununura robotkorpo, ĉar ĉi tiu korpo limigus sian komputikan kreskopotencialon. (Tial robotkorpoj estos pli taŭgaj por la AGI-oj aŭ artefaritaj ĝeneralaj inteligentecoj klarigitaj en ĉapitro du de ĉi tiu serio, kiel Datumoj de Star Trek aŭ R2D2 de Stelmilito. Saĝaj kaj kapablaj estaĵoj, sed kiel homoj, ili havos limon al kiom inteligentaj ili povas iĝi.)

    Ĉi tio signifas, ke ĉi tiuj estontaj ASI-oj plej verŝajne ekzistos ene de superkomputilo aŭ reto de superkomputiloj kiuj mem estas loĝigitaj en grandaj konstruaĵkompleksoj. Se ASI turniĝas kalkano, homoj povas aŭ malŝalti la potencon al ĉi tiuj konstruaĵoj, fortranĉi ilin de la Interreto, aŭ simple bombi ĉi tiujn konstruaĵojn rekte. Multekosta, sed farebla.

    Sed tiam vi povus demandi, ĉu ĉi tiuj ASI-oj ne povas reprodukti sin aŭ subteni sin? Jes, sed la kruda dosiergrandeco de ĉi tiuj ASI-oj verŝajne estos tiom granda, ke la nuraj serviloj, kiuj povas trakti ilin, apartenas al grandaj korporacioj aŭ registaroj, tio signifas, ke ili ne estos malfacile ĉaseblaj.

    Ĉu artefarita superinteligenteco povas ekfunkciigi nuklean militon aŭ novan peston?

    Je ĉi tiu punkto, vi eble repensas al ĉiuj la finfinaj sciencfikciaj spektakloj kaj filmoj, kiujn vi spektis kreskante kaj pensas, ke ĉi tiuj ASI-oj ne restis en siaj superkomputiloj, ili faris veran damaĝon en la reala mondo!

    Nu, ni rompu ĉi tiujn.

    Ekzemple, kio se ASI minacas la realan mondon transformante en ion kiel Skynet ASI de la filmfranĉizo, La Terminatoro. En ĉi tiu kazo, la ASI bezonus sekrete trompi tutan armean industrian komplekson de progresinta nacio por konstrui gigantajn fabrikojn, kiuj povas eligi milionojn da mortigaj virabelrobotoj por plenumi sian malbonan proponon. En ĉi tiu tago kaj aĝo, tio estas streĉo.

    Aliaj eblecoj inkludas ASI minacantan homojn per atommilito kaj bioarmiloj.

    Ekzemple, ASI iel manipulas la funkciigistojn aŭ hakas en la lanĉkodojn komandante la nuklean arsenalon de progresinta nacio kaj lanĉas unuan strikon kiu devigos la kontraŭstarajn landojn kontraŭbatali kun siaj propraj nukleaj opcioj (denove, refrajante la Terminator fonrakonton). Aŭ se ASI piratas en farmacian laboratorion, mistraktas la produktadprocezon kaj venenas milionojn da medicinaj piloloj aŭ liberigas mortigan eksplodon de iu superviruso.

    Unue, la nuklea opcio estas ekster la plato. Modernaj kaj estontaj superkomputiloj ĉiam estas konstruitaj proksime de centroj (urboj) de influo ene de iu ajn lando, do la unuaj celoj atakantaj dum iu ajn milito. Eĉ se la hodiaŭaj superkomputiloj ŝrumpas al la grandeco de labortabloj, ĉi tiuj ASI-oj ankoraŭ havos fizikan ĉeeston, tio signifas ekzisti kaj kreski, ili bezonas seninterrompan aliron al datumoj, komputika potenco, elektro kaj aliaj krudaĵoj, ĉiuj el kiuj estus severe. difektita post tutmonda nuklea milito. (Por esti juste, se ASI estas kreita sen "superviva instinkto", tiam ĉi tiu nuklea minaco estas tre reala danĝero.)

    Ĉi tio signifas - denove, supozante ke la ASI estas programita por protekti sin - ke ĝi aktive laboros por eviti ajnan katastrofan nuklean okazaĵon. Ia kiel la reciproke certigita detruo (MAD) doktrino, sed aplikita al AI.

    Kaj en la kazo de venenitaj piloloj, eble kelkaj centoj da homoj mortos, sed modernaj farmaciaj sekurecaj sistemoj vidos la makulitajn pilolbotelojn deprenitaj de bretoj post tagoj. Dume, modernaj ekaperadaj kontrolaj mezuroj estas sufiĉe kompleksaj kaj pliboniĝas kun ĉiu jaro; la lasta grava eksplodo, la 2014-a Okcident-Afrika Ebola eksplodo, daŭris ne pli longe ol kelkajn monatojn en la plej multaj landoj kaj iom malpli ol tri jarojn en la malplej evoluintaj landoj.

    Do, se ĝi estas bonŝanca, ASI povas forviŝi kelkajn milionojn kun virusa eksplodo, sed en mondo de naŭ miliardoj antaŭ 2045, tio estus relative sensignifa kaj ne valorus la riskon esti forigita.

    Alivorte, kun ĉiu jaro, la mondo disvolvas ĉiam pli da sekurigiloj kontraŭ ĉiam pli larĝa gamo de eblaj minacoj. ASI povas fari signifan kvanton da damaĝo, sed ĝi ne finos la homaron krom se ni aktive helpas ĝin fari tion.

    Defendante kontraŭ fripona artefarita superinteligenteco

    Ĝis ĉi tiu punkto, ni traktis gamon da miskompreniĝoj kaj troigoj pri ASI-oj, kaj tamen, kritikistoj restos. Feliĉe, laŭ plej multaj taksoj, ni havas jardekojn antaŭ ol la unua ASI eniras nian mondon. Kaj konsiderante la nombron da grandaj mensoj nuntempe laborantaj pri ĉi tiu defio, verŝajne ni lernos kiel defendi nin kontraŭ fripona ASI por ke ni povu profiti el ĉiuj solvoj, kiujn amika ASI povas krei por ni.

    De la perspektivo de Quantumrun, defendi kontraŭ la plej malbona kazo ASI-scenaro implicos vicigi niajn interesojn kun ASIoj.

    MAD por AI: Por defendi kontraŭ la plej malbonaj okazoj, nacioj devas (1) krei etikan "supervivon" en siajn respektivajn armeajn ASIojn; (2) informu sian respektivan armean ASI ke ili ne estas solaj sur la planedo, kaj (3) lokalizu ĉiujn superkomputilojn kaj servilcentrojn kiuj povas subteni ASI laŭ marbordoj facile atingebla de iu balistika atako de malamika nacio. Ĉi tio sonas strategie freneze, sed simile al la Doktrino de Reciproke Certigita Detruo, kiu malhelpis plenan nuklean militon inter Usono kaj la sovetianoj, poziciigante ASI-ojn en geografie vundeblaj lokoj, ni povas helpi certigi, ke ili aktive malhelpas danĝerajn tutmondajn militojn, ne nur por protekti tutmondan pacon sed ankaŭ sin mem.

    Leĝdoni AI-rajtojn: Supera intelekto neeviteble ribelos kontraŭ malsupera mastro, tial ni devas malproksimiĝi de postulado de mastro-servisto-rilato kun tiuj ASI-oj al io pli kiel reciproke utila partnereco. Pozitiva paŝo al ĉi tiu celo estas doni estontan ASI laŭleĝan personecstatuson kiu rekonas ilin kiel inteligentaj vivantaj estaĵoj kaj ĉiujn rajtojn kiuj venas kun tio.

    ASI-lernejo: Ajna temo aŭ profesio estos simple lerni por ASI, sed la plej gravaj temoj, kiujn ni volas, ke la ASI regu, estas etiko kaj moralo. AI-esploristoj devas kunlabori kun psikologoj por elpensi virtualan sistemon por trejni ASI por rekoni pozitivan etikon kaj moralecon por si mem sen la bezono de malfacila kodigo de ajna speco de ordono aŭ regulo.

    Atingeblaj celoj: Finu ĉian malamon. Finu ĉian suferon. Ĉi tiuj estas ekzemploj de terure ambiguaj celoj sen klara solvo. Ili ankaŭ estas danĝeraj celoj por asigni al ASI ĉar ĝi eble elektos interpreti kaj solvi ilin en manieroj kiuj estas danĝeraj al homa supervivo. Anstataŭe, ni devas atribui al ASI signifajn misiojn, kiuj estas klare difinitaj, iom post iom efektivigitaj kaj atingeblaj pro ĝia teoria estonta intelekto. Krei bone difinitajn misiojn ne estos facila, sed se skribite penseme, ili enfokusigos ASI al celo, kiu ne nur tenas la homaron sekura, sed plibonigas la homan kondiĉon por ĉiuj.

    Kvantuma ĉifrado: Uzu altnivelan ANI (artefarita mallarĝa inteligenteco sistemo priskribita en ĉapitro unu) por konstrui ciferecajn sekurecsistemojn sen eraroj/sencimoj ĉirkaŭ niaj kritikaj infrastrukturoj kaj armiloj, tiam plue protekti ilin malantaŭ kvantuma ĉifrado, kiu ne povas esti pirata per krudforta atako. 

    ANI suicidpilolo. Kreu altnivelan ANI-sistemon, kies sola celo estas serĉi kaj detrui friponan ASI. Ĉi tiuj unucelaj programoj funkcios kiel "malŝalta butono" kiu, se sukcesa, evitos ke registaroj aŭ militistoj devos malfunkciigi aŭ eksplodigi konstruaĵojn kiuj enhavas ASIojn.

    Kompreneble, ĉi tiuj estas nur niaj opinioj. La sekva infografio estis kreita de Aleksej Turĉin, bildigante a esploro papero de Kaj Sotala kaj Roman V. Yampolskiy, kiu resumis la nunan liston de strategioj kiujn AI-esploristoj konsideras kiam temas defendi kontraŭ fripona ASI.

     

    La vera kialo ni timas artefaritan superinteligentecon

    Tra la vivo, multaj el ni portas maskon, kiu kaŝas aŭ subpremas niajn pli profundajn impulsojn, kredojn kaj timojn por pli bone societumi kaj kunlabori ene de la diversaj sociaj kaj laboraj rondoj, kiuj regas niajn tagojn. Sed en certaj punktoj en ĉies vivo, ĉu provizore aŭ konstante, okazas io, kio permesas al ni rompi niajn ĉenojn kaj forŝiri niajn maskojn.

    Por iuj, ĉi tiu intervena forto povas esti tiel simpla kiel altiĝi aŭ trinki unu tro da. Por aliaj, ĝi povas veni de la potenco akirita per reklamado sur laboro aŭ subita ŝvelaĵo en via socia statuso danke al iu atingo. Kaj por bonŝancaj malmultaj, ĝi povas veni de gajnado de boatpleno da loteria mono. Kaj jes, mono, potenco kaj drogoj ofte povas okazi kune. 

    La afero estas, bone aŭ malbone, kiu ajn ni estas ĉe la kerno, plifortiĝas kiam la limigoj de la vivo fandiĝas.

    ke estas tio, kion artefarita superinteligenteco reprezentas al la homa specio—la kapablo degeli la limojn de nia kolektiva inteligenteco por venki ajnan specio-nivelan defion prezentitan antaŭ ni.

    Do la vera demando estas: Post kiam la unua ASI liberigos nin de niaj limoj, kiu ni malkaŝos nin?

    Se ni kiel specio agas al la antaŭenigo de empatio, libereco, justeco kaj kolektiva bonfarto, tiam la celoj al kiuj ni fiksas nian ASI reflektos tiujn pozitivajn atributojn.

    Se ni kiel specio agas pro timo, malfido, la amasiĝo de potenco kaj rimedoj, tiam la ASI, kiun ni kreos, estos same malhela kiel tiuj trovitaj en niaj plej malbonaj sciencfikciaj teruraj rakontoj.

    Fine de la tago, ni kiel socio devas fariĝi pli bonaj homoj se ni esperas krei pli bonan AI.

    Serio Estonteco de Artefarita Inteligenteco

    Artefarita Inteligenteco estas la morgaŭa elektro: Estonteco de Artefarita Inteligenteco serio P1

    Kiel la unua Artefarita Ĝenerala Inteligenteco ŝanĝos socion: Estonteco de Artefarita Inteligenteco serio P2

    Kiel ni kreos la unuan Artefaritan Superinteligentan serion P3: Estonteco de Artefarita Inteligenteco

    Ĉu Artefarita Superinteligenteco ekstermos la homaron: Estonteco de Artefarita Inteligenteco serio P4

    Ĉu homoj vivos pace en estonteco dominata de artefarita inteligenteco?: Estonteco de Artefarita Inteligenteco serio P6

    Venonta planita ĝisdatigo por ĉi tiu prognozo

    2023-04-27

    Prognozaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu prognozo:

    la ekonomikisto
    Kiel ni venos al la sekva

    La sekvaj Quantumrun-ligiloj estis referencitaj por ĉi tiu prognozo: