Hoe minsken sille ferdigenje tsjin in keunstmjittige superintelliginsje: takomst fan keunstmjittige yntelliginsje P5

Ofbyldingskredyt: Quantumrun

Hoe minsken sille ferdigenje tsjin in keunstmjittige superintelliginsje: takomst fan keunstmjittige yntelliginsje P5

    It jier is 65,000 f.Kr., en as in Thylacoleo, do en dyn soarte wiene de grutte jagers fan it âlde Austraalje. Jo rûnen frij oer it lân en libbe yn lykwicht mei de oare rôfdieren en proai dy't it lân neist jo besette. De seizoenen brochten feroaring, mar jo status yn it bisteryk bleau ûnbestriden sa lang as jo en jo foarâlden it ûnthâlde koene. Doe ferskynden op in dei nijkommers.

    Geroften hawwe it dat se oankamen fan 'e gigantyske wettermuorre, mar dizze skepsels like nofliker te wenjen op lân. Jo moasten dizze skepsels sels sjen.

    It duorre in pear dagen, mar jo hawwe it einlings oan 'e kust makke. It fjoer yn 'e himel wie ynsteld, in perfekte tiid om te bispiede op dizze skepsels, miskien sels besykje ien te iten om te sjen hoe't se smakke.

    Jo spot ien.

    It rûn op twa skonken en hie gjin bont. It like swak. Unympressive. De eangst dy't it feroarsake ûnder it keninkryk amper wurdich.

    Jo begjinne jo oanpak foarsichtich te meitsjen as de nacht it ljocht fuortjaget. Jo komme tichterby. Dan befrieze jo. Der klinke lûde lûden en dan ferskine der noch fjouwer út it bosk der efter. Hoefolle binne dêr?

    It skepsel folget de oaren yn 'e treeline, en jo folgje. En hoe mear jo dogge, hoe frjemder lûden jo hearre oant jo noch mear fan dizze skepsels sjogge. Jo folgje op in ôfstân as se de bosk útgeane yn in iepening by de kust. Der binne in protte fan harren. Mar wichtiger, se sitte allegear rêstich om in fjoer.

    Jo hawwe dizze brânen earder sjoen. Yn it waarme seizoen soe it fjoer yn 'e loft soms it lân besykje en hiele bosken ôfbaarne. Dizze skepsels, oan 'e oare kant, se kontroleare it op ien of oare manier. Hokker soarte skepsels kinne sa'n macht hawwe?

    Jo sjogge yn 'e fierte. Der komme mear oer de gigantyske wettermuorre.

    Jo nimme in stap werom.

    Dizze skepsels binne net lykas de oaren yn it keninkryk. Se binne wat folslein nij.

    Jo beslute om fuort te gean en jo sibben te warskôgjen. As har oantallen te grut wurde, wa wit wat der barre kin.

    ***

    It wurdt leaud dat de Thylacoleo in relatyf koarte tiid nei de komst fan minsken útstoarn is, tegearre mei de mearderheid fan 'e oare megafauna op it Australyske kontinint. Gjin oare apex sûchdieren predators naam syn plak - dat is útsein as jo telle minsken yn dy kategory.

    It ôfspieljen fan dizze allegory is it fokus fan dit haadstik fan 'e searje: Sil in takomstige keunstmjittige superintelliginsje (ASI) ús allegear yn batterijen feroarje en ús dan yn' e Matrix stekke of sille minsken in manier útfine om foar te kommen dat se in slachtoffer wurde fan in sci-fi, AI doomsday plot?

    Oant no ta yn ús rige oer de Takomst fan keunstmjittige yntelliginsje, wy hawwe alle soarten AI ûndersocht, ynklusyf it positive potinsjeel fan in bepaalde foarm fan AI, de ASI: in keunstmjittich wêzen waans takomstige yntelliginsje ús yn ferliking as mieren sil útsjen.

    Mar wa sil sizze dat in wêzen dat sa tûk soe akseptearje it nimmen fan oarders fan minsken foar altyd. Wat sille wy dwaan as dingen nei it suden gean? Hoe sille wy ferdigenje tsjin in rogue ASI?

    Yn dit haadstik sille wy troch de falske hype snije - op syn minst as it relatearret oan 'e gefaren fan 'minsklike útstjerren' - en fokusje op de realistyske opsjes foar selsferdigening dy't beskikber binne foar wrâldregearingen.

    Kinne wy ​​alle fierdere ûndersyk nei in keunstmjittige superintelliginsje stopje?

    Sjoen de potinsjele risiko's dy't in ASI foar it minskdom koe posearje, is de earste foar de hân lizzende fraach om te freegjen: kinne wy ​​​​alle fierdere ûndersyk nei AI net gewoan stopje? Of op syn minst elk ûndersyk ferbiede dat ús gefaarlik tichtby it meitsjen fan in ASI kin bringe?

    Koart antwurd: Nee.

    Lang antwurd: Litte wy nei de ferskate belutsen spilers sjen.

    Op ûndersyksnivo binne d'r hjoed tefolle AI-ûndersikers fan tefolle startups, bedriuwen en universiteiten oer de hiele wrâld. As ien bedriuw of lân besleat har AI-ûndersyk te beheinen, soene se gewoan earne oars trochgean.

    Underwilens meitsje de meast weardefolle bedriuwen fan 'e planeet har fortún út har tapassing fan AI-systemen op har spesifike bedriuwen. Harren freegje om har ûntwikkeling fan AI-ark te stopjen of te beheinen is fergelykber mei har freegje om har takomstige groei te stopjen of te beheinen. Finansjeel soe dit har bedriuw op lange termyn bedrige. Juridysk hawwe korporaasjes in fidusiêre ferantwurdlikens om kontinu wearde op te bouwen foar har belanghawwenden; dat betsjut dat elke aksje dy't de groei fan dy wearde beheine kin ta in rjochtsaak liede. En as in politikus besocht AI-ûndersyk te beheinen, dan soene dizze gigantyske bedriuwen gewoan de nedige lobbyfergoedingen betelje om har gedachten of de gedachten fan har kollega's te feroarjen.

    Foar bestriding, krekt lykas terroristen en frijheidsstriders oer de hiele wrâld guerrillataktiken hawwe brûkt om te fjochtsjen tsjin better finansierde militêren, sille lytsere folken in stimulâns hawwe om AI te brûken as in ferlykber taktysk foardiel tsjin gruttere folken dy't in oantal militêre foardielen kinne hawwe. Likemin, foar topmilitêrs, lykas dy dy't ta de FS, Ruslân en Sina hearre, is it bouwen fan in militêre ASI op par mei it hawwen fan in arsenaal fan kearnwapens yn jo efterbûse. Mei oare wurden, alle militêren sille trochgean mei finansiering fan AI gewoan om yn 'e takomst relevant te bliuwen.

    Hoe sit it mei oerheden? Wierlik binne de measte politisy dizze dagen (2018) technologysk analfabeet en hawwe net folle begryp fan wat AI is of har takomstpotinsjeel - dit makket se maklik te manipulearjen troch bedriuwsbelangen.

    En op wrâldwide nivo, beskôgje hoe lestich it wie om wrâldregearingen te oertsjûgjen om de 2015 te ûndertekenjen paris oerienkomst om klimaatferoaring oan te pakken - en ienris ûndertekene wiene in protte fan 'e ferplichtingen net iens binend. Net allinich dat, klimaatferoaring is in probleem dat minsken wrâldwiid fysyk ûnderfine troch hieltyd faker en slimmer waareveneminten. No, as it praat oer it ynstimmen fan limiten op AI, is dit in probleem dat foar it grutste part ûnsichtber is en amper te begripen foar it publyk, dus goed gelok om ynkeap te krijen foar elke soarte 'Parys-oerienkomst' foar it beheinen fan AI.

    Mei oare wurden, d'r binne tefolle ynteresses dy't AI foar har eigen doelen ûndersykje om elk ûndersyk te stopjen dat úteinlik kin liede ta in ASI. 

    Kinne wy ​​​​in keunstmjittige superintelliginsje yn 'e kuolkast?

    De folgjende ridlike fraach is kinne wy ​​​​in ASI yn 'e kooie of kontrolearje as wy ienris ien meitsje? 

    Koart antwurd: Nochris nee.

    Lang antwurd: Technology kin net befette wurde.

    Foar ien, beskôgje gewoan de tûzenen oant miljoenen webûntwikkelders en kompjûterwittenskippers yn 'e wrâld dy't konstant nije software as nije ferzjes fan besteande software útbringe. Kinne wy ​​earlik sizze dat elk fan har softwarereleases 100 prosint bugfrij is? Dizze bugs binne wat profesjonele hackers brûke om de kredytkaartynformaasje fan miljoenen of de klassifisearre geheimen fan folken te stellen - en dit binne minsklike hackers. Foar in ASI, oannommen dat it in stimulâns hie om syn digitale koai te ûntkommen, dan soe it proses fan it finen fan bugs en it trochbrekken fan software in wyntsje wêze.

    Mar sels as in AI-ûndersyksteam in manier útfûn om in ASI te boksen, betsjuttet dat net dat de folgjende 1,000 teams it ek sille útfine of wurde stimulearre om it te brûken.

    It sil miljarden dollars en miskien sels desennia duorje om in ASI te meitsjen. De korporaasjes as oerheden dy't dit soarte jild en tiid ynvestearje, sille in signifikant rendemint ferwachtsje op har ynvestearring. En foar in ASI om dat soarte rendemint te leverjen - of dat no is om de beurs te spieljen of in nij produkt fan miljard dollar út te finen of in winnende strategy te planjen om in grutter leger te bestriden - sil it frije tagong hawwe ta in gigantyske dataset of sels it ynternet sels om dy rendeminten te produsearjen.

    En as in ASI ienris tagong krijt ta de netwurken fan 'e wrâld, binne d'r gjin garânsjes dat wy it werom kinne stopje yn syn koai.

    Kin in keunstmjittige superintelliginsje leare om goed te wêzen?

    Op it stuit binne AI-ûndersikers gjin soargen oer in ASI dy't kwea wurdt. De hiele kweade, AI sci-fi trope is gewoan minsken dy't wer antropomorfisearje. In takomstige ASI sil noch goed of kwea wêze - minsklike begripen - gewoan amoreel.

    De natuerlike oanname is dan dat jûn dizze lege etyske lei, AI-ûndersikers kinne programmearje yn 'e earste ASI etyske koades dy't yn oerienstimming binne mei ús eigen, sadat it net einiget mei it loslitten fan Terminators op ús of ús allegear yn Matrix-batterijen omsette.

    Mar dizze oanname bakt yn in sekundêre oanname dat AI-ûndersikers ek saakkundigen binne yn etyk, filosofy en psychology.

    Yn wierheid binne de measten net.

    Neffens de kognitive psycholooch en skriuwer, Steven Pinker, betsjut dizze realiteit dat de taak fan kodearjen fan etyk op in ferskaat oan ferskillende wizen ferkeard gean kin.

    Bygelyks, sels de bêste-bedoelde AI-ûndersikers kinne ûnbedoeld yn dizze ASI min trochtochte etyske koades kodearje dy't yn bepaalde senario's de ASI kinne feroarsaakje as in sociopath.

    Likegoed is d'r in gelikense kâns dat in AI-ûndersiker etyske koades programmeart dy't de oanberne foaroardielen fan 'e ûndersiker omfetsje. Bygelyks, hoe soe in ASI him gedrage as boud mei etyk ôflaat fan in konservatyf vs liberaal perspektyf, of fan in boeddhist tsjin in kristlike of islamityske tradysje?

    Ik tink dat jo it probleem hjir sjogge: D'r is gjin universele set fan minsklike moraal. As wy wolle dat ús ASI hannelet troch in etyske koade, wêr sil it dan wei komme? Hokker regels befetsje en útslute wy? Wa beslút?

    Of litte wy sizze dat dizze AI-ûndersikers in ASI meitsje dy't perfekt yn oerienstimming is mei de moderne kulturele noarmen en wetten fan hjoed. Wy brûke dan dizze ASI om federale, steats-/provinsjale en gemeentlike burokrasy te helpen effisjinter te funksjonearjen en dizze noarmen en wetten better te hanthavenjen (in wierskynlik gebrûk foar in ASI trouwens). No, wat bart der as ús kultuer feroaret?

    Stel jo foar dat in ASI waard makke troch de Katolike Tsjerke op 'e hichte fan har macht yn' e midsieuske Jeropa (1300-1400s) mei it doel om de tsjerke te helpen de befolking te behearjen en te garandearjen strikt neilibjen fan it religieuze dogma fan 'e tiid. Soene froulju ieuwen letter deselde rjochten genietsje as hjoeddedei? Soene minderheden beskerme wurde? Soe frijheid fan mieningsutering befoardere wurde? Soe de skieding fan tsjerke en steat ôftwongen wurde? Moderne wittenskip?

    Mei oare wurden, wolle wy de takomst fêstlizze oan de hjoeddeiske moraal en gewoanten?

    In alternative oanpak is ien dield troch Colin Allen, mei-auteur fan it boek, Morale masines: Robots rjocht fan ferkeard leare. Ynstee fan te besykjen rigide etyske regels te kodearjen, hawwe wy de ASI mienskiplike etyk en moraal leare op deselde manier as minsken dogge, troch ûnderfining en ynteraksjes mei oaren.

    It probleem hjir is lykwols as AI-ûndersikers net allinich útfine hoe't se in ASI ús hjoeddeistige kulturele en etyske noarmen leare kinne, mar ek hoe't se kinne oanpasse oan nije kulturele noarmen as se ûntsteane (wat 'yndirekte normativiteit' neamd wurdt), dan hoe dit ASI beslút te evolve syn begryp fan kulturele en etyske noarmen wurdt ûnfoarspelber.

    En dat is de útdaging.

    Oan 'e iene kant kinne AI-ûndersikers besykje strikte etyske noarmen of regels yn' e ASI te kodearjen om har gedrach te kontrolearjen, mar riskearje dat ûnfoarsjoene gefolgen wurde ynfierd troch slordige kodearring, ûnbedoelde foaroardielen en maatskiplike noarmen dy't ienris ferâldere kinne wurde. Oan 'e oare kant kinne wy ​​besykje de ASI te trenen om te learen minsklike etyk en moraal te begripen op in manier dy't lykweardich of superieur is oan ús eigen begryp en dan hoopje dat it har begryp fan etyk en moraal krekt kin ûntwikkelje as de minsklike maatskippij foarútgiet foarút oer de kommende desennia en ieuwen.

    Hoe dan ek, elke besykjen om de doelen fan in ASI oan te passen oan ús eigen, jout in soad risiko.

    Wat as minne akteurs mei opsetsin kweade keunstmjittige superintelliginsje meitsje?

    Sjoen de gedachteline dy't oant no ta is sketst, is it in earlike fraach om te freegjen oft it mooglik is foar in terroristyske groep of skelmfolk om in 'kwea' ASI foar har eigen doelen te meitsjen.

    Dit is heul mooglik, foaral neidat ûndersyk belutsen by it meitsjen fan in ASI op ien of oare manier online beskikber is.

    Mar lykas earder oanjûn, sille de kosten en saakkundigens belutsen by it meitsjen fan 'e earste ASI enoarm wêze, wat betsjuttet dat de earste ASI wierskynlik sil wurde makke troch in organisaasje dy't wurdt kontrolearre of sterk beynfloede troch in ûntwikkele naasje, wierskynlik de FS, Sina en Japan ( Korea en ien fan 'e liedende EU-lannen binne lange shots).

    Al dizze lannen, wylst konkurrinten, elk in sterke ekonomyske stimulâns hawwe om wrâldoarder te behâlden - de ASI's dy't se meitsje sille dy winsk wjerspegelje, sels wylst se de belangen befoarderje fan 'e folken wêrmei't se har ôfstimme.

    Dêrnjonken is de teoretyske yntelliginsje en macht fan in ASI lyk oan de komputerkrêft dêr't it tagong ta krijt, wat betsjuttet dat de ASI's fan ûntwikkele folken (dy't in bulte fan miljard dollar kinne betelje) supercomputers) sil in enoarm foardiel hawwe boppe ASI's fan lytsere naasjes of ûnôfhinklike kriminele groepen. Ek ASI's groeie yntelliginter, rapper oer de tiid.

    Dat, jûn dizze foarsprong, kombinearre mei gruttere tagong ta rûge komputerkrêft, soe in skaadlike organisaasje/naasje in gefaarlike ASI meitsje, de ASI's fan ûntwikkele folken sille it of deadzje of it yn 'e koai sette.

    (Dizze tinkline is ek wêrom guon AI-ûndersikers leauwe dat d'r mar ien ASI op 'e planeet sil wêze, om't de earste ASI sa'n foarsprong sil hawwe oer alle opfolgjende ASI's dat it takomstige ASI's kin sjen as bedrigingen dy't wurde fermoarde. Dit is noch in oare reden wêrom naasjes oanhâldend ûndersyk yn AI finansiere, foar it gefal dat it in 'earste plak of neat' kompetysje wurdt.)

    ASI-yntelliginsje sil net fersnelle of eksplodearje lykas wy tinke

    Wy kinne net stopje dat in ASI wurdt makke. Wy kinne it net hielendal kontrolearje. Wy kinne der net wis fan wêze dat it altyd sil hannelje yn oerienstimming mei ús dielde gewoanten. Geez, wy begjinne hjir te klinken as helikopterâlders!

    Mar wat it minskdom skiedt fan jo typyske oerbeskermjende âlder is dat wy in wêzen berne wurde waans yntelliginsje folle boppe ús sil groeie. (En nee, it is net itselde as wannear't jo âlders jo freegje om har komputer te reparearjen as jo thús komme foar in besite.) 

    Yn eardere haadstikken fan dizze takomst fan keunstmjittige yntelliginsje-searjes hawwe wy ûndersocht wêrom AI-ûndersikers tinke dat de yntelliginsje fan in ASI bûten kontrôle sil groeie. Mar hjir, wy sille barste dat bubble ... soarte fan. 

    Jo sjogge, yntelliginsje makket himsels net allinich út 'e loft, it wurdt ûntwikkele troch ûnderfining dy't foarme wurdt troch stimuli fan bûten.  

    Mei oare wurden, kinne wy ​​programmearje in AI mei de potinsjeel om super yntelligint te wurden, mar as wy der net in ton oan gegevens yn uploade of it ûnbeheinde tagong jouwe ta it ynternet of sels gewoan in robotlichem jouwe, sil it neat leare om dat potensjeel te berikken. 

    En sels as it tagong krijt ta ien of mear fan dy prikels, giet kennis of yntelliginsje mear om dan allinnich it sammeljen fan gegevens, it giet om de wittenskiplike metoade - it meitsjen fan in observaasje, it foarmjen fan in fraach, in hypoteze, it útfieren fan eksperiminten, it meitsjen fan in konklúzje, spoelen en werhelje foar altyd. Benammen as dizze eksperiminten fysike dingen of it observearjen fan minsken befetsje, kinne de resultaten fan elk eksperimint wiken, moannen of jierren duorje om te sammeljen. Dit hâldt net iens rekken mei it jild en de rauwe middels dy't nedich binne om dizze eksperiminten út te fieren, foaral as it giet om it bouwen fan in nije teleskoop of fabryk. 

    Mei oare wurden, ja, in ASI sil fluch leare, mar yntelliginsje is gjin magy. Jo kinne net samar heakje in ASI oan in supercomputer in ferwachtsje dat it is al-wittende. D'r sille fysike beheiningen wêze foar de oankeap fan gegevens fan ASI, wat betsjuttet dat d'r fysike beheiningen sille wêze foar de snelheid dat it yntelligender wurdt. Dizze beheiningen sille it minskdom de tiid jaan dy't it nedich is om de nedige kontrôles op dizze ASI te pleatsen as it begjint te hanneljen yn oerienstimming mei minsklike doelen.

    In keunstmjittige superyntelliginsje is allinich gefaarlik as it yn 'e echte wrâld komt

    In oar punt dat is ferlern yn dit hiele ASI gefaar debat is dat dizze ASI's sille net bestean yn 'e beide. Se sille in fysike foarm hawwe. En alles dat in fysike foarm hat, kin wurde kontrolearre.

    As earste, foar in ASI om syn yntelliginsjepotinsjeel te berikken, kin it net yn ien robotlichem wurde ûnderbrocht, om't dit lichem syn potinsjeel foar komputergroei soe beheine. (Dêrom sille robotlichems mear passend wêze foar de AGI's as keunstmjittige algemiene yntelliginsjes útlein yn haadstik twa fan dizze rige, lykas Data út Star Trek of R2D2 út Star Wars. Tûke en bekwame wêzens, mar lykas minsken sille se in limyt hawwe foar hoe tûk se kinne wurde.)

    Dit betsjut dat dizze takomstige ASI's nei alle gedachten sille bestean binnen in superkompjûter of netwurk fan supercomputers dy't sels binne ûnderbrocht yn grutte gebou kompleksen. As in ASI hak draait, kinne minsken de krêft nei dizze gebouwen útsette, se ôfbrekke fan it ynternet, of dizze gebouwen gewoan bombardearje. Djoer, mar te dwaan.

    Mar dan kinne jo freegje, kinne dizze ASI's harsels net replikearje of harsels back-up meitsje? Ja, mar de rûge triemgrutte fan dizze ASI's sil wierskynlik sa grut wêze dat de ienige servers dy't se kinne omgean, hearre ta grutte bedriuwen of oerheden, wat betsjuttet dat se net dreech binne om te jagen.

    Kin in keunstmjittige superintelliginsje in nukleêre oarloch as nije pest opsmite?

    Op dit punt tinke jo miskien werom oan alle doomsday sci-fi-sjo's en films dy't jo seagen opgroeiend en tinke dat dizze ASI's net yn har superkomputers bleaunen, se hawwe echte skea yn 'e echte wrâld!

    No, lit ús dizze ôfbrekke.

    Bygelyks, wat as in ASI de echte wrâld bedriget troch te transformearjen yn iets as in Skynet ASI fan 'e filmfranchise, The Terminator. Yn dit gefal soe de ASI moatte stikem dupe in folslein militêr yndustrieel kompleks fan in avansearre naasje yn it bouwen fan gigantyske fabriken dy't miljoenen killer drone-robots kinne churnearje om har kweade biedingen te dwaan. Yn dizze dei en leeftyd is dat in stik.

    Oare mooglikheden omfetsje in ASI dy't minsken bedriget mei nukleêre oarloch en biowapens.

    Bygelyks, in ASI manipulearret op ien of oare manier de operators of hackt yn 'e lansearringskoades dy't it nukleêre arsenaal fan in avansearre naasje befelje en lanseart in earste staking dy't de tsjinoerstelde lannen sil twinge om werom te slaan mei har eigen nukleêre opsjes (opnij, it eftergrûnferhaal fan Terminator opnij). Of as in ASI hackt yn in farmaseutysk laboratoarium, manipulearret mei it produksjeproses, en fergiftiget miljoenen medyske pillen of ûntket in deadlike útbraak fan ien of oare superfirus.

    Earst is de nukleêre opsje fan 'e plaat ôf. Moderne en takomstige superkompjûters wurde altyd boud tichtby sintra (stêden) fan ynfloed binnen in bepaald lân, dat wol sizze de earste doelen dy't wurde oanfallen tidens in opjûne oarloch. Sels as de hjoeddeiske superkompjûters krimp nei de grutte fan buroblêden, sille dizze ASI's noch in fysike oanwêzigens hawwe, dat betsjut dat se bestean en groeie, se hawwe ûnûnderbrutsen tagong nedich ta gegevens, kompjûterkrêft, elektrisiteit en oare grûnstoffen, wat allegear swier wêze soe bedoarn nei in wrâldwide nukleêre oarloch. (Om earlik te wêzen, as in ASI wurdt makke sûnder in 'oerlibjensynstinkt', dan is dizze nukleêre bedriging in heul reëel gefaar.)

    Dit betsjut - wer, oannommen dat de ASI is programmearre om himsels te beskermjen - dat it aktyf sil wurkje om elk katastrofysk nukleêr ynsidint te foarkommen. Soart as de lear fan mutually assured destruction (MAD), mar tapast op AI.

    En yn it gefal fan fergiftige pillen sille miskien in pear hûndert minsken stjerre, mar moderne farmaseutyske feiligenssystemen sille de fersmoarge pilfleskes binnen dagen fan 'e planken nimme. Underwilens binne moderne maatregels foar útbraakkontrôle frij ferfine en wurde se mei elk jier better; de lêste grutte útbraak, de 2014 West-Afrika Ebola útbraak, duorre net langer as in pear moannen yn de measte lannen en krekt ûnder trije jier yn de minst ûntwikkele lannen.

    Dus, as it gelok is, kin in ASI in pear miljoen mei in firale útbraak wiskje, mar yn in wrâld fan njoggen miljard yn 2045 soe dat relatyf ûnbelangryk wêze en it risiko net wurdich om foar wiske te wurden.

    Mei oare wurden, mei elts jier ûntwikkelet de wrâld hieltyd mear beskermingen tsjin in hieltyd grutter oanbod fan mooglike bedrigingen. In ASI kin in signifikant bedrach fan skea dwaan, mar it sil it minskdom net einigje, útsein as wy it aktyf helpe om dit te dwaan.

    Ferdigenjen tsjin in skelm keunstmjittige superintelliginsje

    Op dit punt hawwe wy in ferskaat oan misferstannen en oerdriuwingen oer ASI's oanpakt, en dochs sille kritisy bliuwe. Gelokkich, troch de measte skatten, hawwe wy tsientallen jierren foardat de earste ASI yn ús wrâld komt. En sjoen it oantal grutte geasten dy't op it stuit wurkje oan dizze útdaging, binne de kânsen dat wy sille leare hoe't wy ússels ferdigenje kinne tsjin rogue ASI, sadat wy kinne profitearje fan alle oplossingen dy't in freonlike ASI foar ús kin meitsje.

    Fanút it perspektyf fan Quantumrun sil ferdigenjen tsjin it slimste gefal ASI-senario omfetsje it ôfstimmen fan ús belangen mei ASI's.

    MAD foar AI: Om te ferdigenjen tsjin 'e slimste senario's, moatte folken (1) in etysk 'oerlibjensynstinkt' meitsje yn har respektivelike militêre ASI's; (2) ynformearje harren respektive militêre ASI dat se binne net allinnich op 'e planeet, en (3) locate alle supercomputers en tsjinner sintra dat kin stypje in ASI lâns kustlinen binnen maklik berik fan eltse ballistyske oanfal fan in fijân naasje. Dit klinkt strategysk gek, mar fergelykber mei de Mutually Assured Destruction-doktrine dy't in folsleine nukleêre oarloch foarkaam tusken de FS en de Sowjets, troch ASI's op geografysk kwetsbere lokaasjes te pleatsen, kinne wy ​​​​helpe te garandearjen dat se aktyf gefaarlike wrâldwide oarloggen foarkomme, net allinich om beskermje wrâldwide frede, mar ek harsels.

    Legislate AI rjochten: In superieur yntellekt sil ûnûntkomber rebellearje tsjin in mindere master, dit is wêrom wy moatte fuortgean fan it easkjen fan in master-tsjinner relaasje mei dizze ASI's nei wat mear as in wederzijds foardielich partnerskip. In positive stap nei dit doel is om takomstige ASI juridyske persoan status te jaan dy't se erkent as yntelliginte libbene wêzens en alle rjochten dy't dêrby komme.

    ASI skoalle: Elk ûnderwerp of berop sil ienfâldich wêze foar in ASI om te learen, mar de wichtichste ûnderwerpen dy't wy wolle dat de ASI behearskje binne etyk en moraal. AI-ûndersikers moatte gearwurkje mei psychologen om in firtueel systeem te betinken om in ASI op te trenen om positive etyk en moraal foar himsels te erkennen sûnder de needsaak foar hurde kodearring fan elk type gebod of regel.

    Te berikken doelen: Einigje alle haat. Einigje alle lijen. Dit binne foarbylden fan ôfgryslik dûbelsinnige doelen sûnder dúdlike oplossing. Se binne ek gefaarlike doelen om oan in ASI te jaan, om't it kin kieze om se te ynterpretearjen en op te lossen op manieren dy't gefaarlik binne foar minsklik oerlibjen. Ynstee, wy moatte tawize ASI sinfolle misjes dy't dúdlik definiearre, stadichoan útfierd en berikber sjoen syn teoretyske takomst yntellekt. It oanmeitsjen fan goed definieare misjes sil net maklik wêze, mar as se yntinsyf skreaun wurde, sille se in ASI rjochtsje op in doel dat net allinich it minskdom feilich hâldt, mar de minsklike betingst foar allegear ferbettert.

    Quantum fersifering: Brûk in avansearre ANI (keunstmjittige smelle yntelliginsje systeem beskreaun yn haadstik ien) om flater / brekfrije digitale befeiligingssystemen te bouwen om ús krityske ynfrastruktuer en wapens, en beskermje se dan fierder efter kwantumfersifering dy't net kinne wurde hacked troch in brute force oanfal. 

    ANI selsmoard pil. Meitsje in avansearre ANI-systeem waans ienige doel is om rogue ASI op te sykjen en te ferneatigjen. Dizze programma's foar ien doel sille tsjinje as in "off-knop" dy't, as suksesfol, sil foarkomme dat regearingen of militêren gebouwen dy't ASI's hawwe moatte útskeakelje of opblaze.

    Fansels binne dit gewoan ús mieningen. De folgjende infographic is makke troch Alexey Turchin, fisualisearjen fan a ûndersyksrapport troch Kaj Sotala en Roman V. Yampolskiy, dat gearfette de hjoeddeiske list fan strategyen AI ûndersikers beskôgje as it giet om ferdigenjen tsjin rogue ASI.

     

    De echte reden dat wy bang binne foar in keunstmjittige superintelliginsje

    Troch it libben te gean, drage in protte fan ús in masker dat ús djippere ympulsen, oertsjûgingen en eangsten ferberget of ûnderdrukt om better te socialisearjen en gear te wurkjen binnen de ferskate sosjale en wurksirkels dy't ús dagen regearje. Mar op bepaalde punten yn it libben fan elkenien, of it no tydlik of permanint is, bart der wat wêrtroch wy ús keatlingen kinne brekke en ús maskers ripje.

    Foar guon kin dizze yngripende krêft sa ienfâldich wêze as heech wurde of ien tefolle drinke. Foar oaren kin it komme fan 'e macht krigen troch in promoasje op it wurk of in hommelse bult yn jo sosjale status troch guon prestaasjes. En foar in gelokkige pear kin it komme fan it skoaren fan in boatlading lotterijjild. En ja, jild, macht en drugs kinne faaks tegearre barre. 

    It punt is, foar goed of min, wa't wy ek yn 'e kearn binne, wurdt fersterke as de beheiningen fan it libben ferdwine.

    Dat is wat keunstmjittige superintelliginsje fertsjintwurdiget foar de minsklike soarte - de mooglikheid om de beheiningen fan ús kollektive yntelliginsje fuort te smelten om elke útdaging op soartenivo te feroverjen dy't foar ús presintearre wurdt.

    Dat de echte fraach is: ienris de earste ASI ús befrijt fan ús beheiningen, wa sille wy ússels iepenbierje te wêzen?

    As wy as in soarte hannelje foar de foarútgong fan empaty, frijheid, earlikens en kollektyf wolwêzen, dan sille de doelen dy't wy ús ASI sette, dy positive eigenskippen reflektearje.

    As wy as soarte hannelje út eangst, wantrouwen, de accumulation fan macht en boarnen, dan sil de ASI dy't wy meitsje sa tsjuster wêze as dy fûn yn ús slimste sci-fi horrorferhalen.

    Oan 'e ein fan' e dei moatte wy as maatskippij bettere minsken wurde as wy hoopje bettere AI te meitsjen.

    Future of Artificial Intelligence rige

    Artificial Intelligence is de elektrisiteit fan moarn: Future of Artificial Intelligence-searje P1

    Hoe't de earste Artificial General Intelligence de maatskippij sil feroarje: Future of Artificial Intelligence-searje P2

    Hoe't wy de earste Artificial Superintelligenc: Future of Artificial Intelligence-searje P3 sille meitsje

    Sil in keunstmjittige superintelliginsje it minskdom útroege: Future of Artificial Intelligence-searje P4

    Sille minsken freedsum libje yn in takomst dominearre troch keunstmjittige yntelliginsjes?: Future of Artificial Intelligence-searje P6

    Folgjende plande update foar dizze prognose

    2023-04-27

    Forecast referinsjes

    De folgjende populêre en ynstitúsjonele keppelings waarden ferwiisd foar dizze prognose:

    Hoe komme wy nei folgjende

    De folgjende Quantumrun-keppelings waarden ferwiisd foar dizze prognose: