Kako se bomo ljudje branili pred umetno superinteligenco: Prihodnost umetne inteligence P5

KREDIT ZA SLIKO: Quantumrun

Kako se bomo ljudje branili pred umetno superinteligenco: Prihodnost umetne inteligence P5

    Leto je 65,000 pr. n. št. in kot a Thylacoleo, vi in ​​vaša vrsta ste bili veliki lovci starodavne Avstralije. Svobodno ste se sprehajali po zemlji in živeli v ravnovesju s svojimi soplenilci in plenom, ki so zasedli zemljo poleg vas. Letni časi so prinesli spremembe, vendar je vaš status v živalskem kraljestvu ostal nesporen, dokler ste vi in ​​vaši predniki pomnili. Potem pa so se nekega dne pojavili novinci.

    Govori se, da so prispeli z velikanskega vodnega zidu, vendar se je zdelo, da je tem bitjem bolj udobno živeti na kopnem. Ta bitja ste morali videti sami.

    Trajalo je nekaj dni, vendar ste končno prispeli do obale. Ogenj na nebu se je prižgal, pravi čas, da vohunite za temi bitji, morda celo poskusite enega pojesti, da vidite, kakšen okus imajo.

    Opaziš enega.

    Hodil je po dveh nogah in ni imel dlake. Videti je bilo šibko. Neimpresivno. Komajda vredno strahu, ki ga je povzročal med kraljestvom.

    Začnete se previdno približevati, ko noč preganja svetlobo. Bližaš se. Potem zmrzneš. Zasliši se glasen zvok in nato se iz gozda za njim pojavijo še štirje. Koliko jih je?

    Bitje sledi drugim v drevesni meji in vi mu sledite. In bolj kot to počnete, bolj nenavadne zvoke slišite, dokler ne opazite še več teh bitij. Od daleč jim sledite, ko izstopijo iz gozda na jaso ob obali. Veliko jih je. Še pomembneje pa je, da vsi mirno sedijo okoli ognja.

    Te požare ste že videli. V vročem času je ogenj na nebu včasih obiskal zemljo in požgal cele gozdove. Po drugi strani pa so ta bitja nekako nadzorovala. Kakšna bitja imajo lahko takšno moč?

    Gledaš v daljavo. Čez velikansko vodno steno prihaja še več.

    Stopiš korak nazaj.

    Ta bitja niso kot druga v kraljestvu. So nekaj povsem novega.

    Odločiš se, da odideš in opozoriš svoje sorodnike. Če se njihovo število preveč poveča, kdo ve, kaj se lahko zgodi.

    ***

    Domneva se, da je Thylacoleo izumrl relativno kratek čas po prihodu ljudi, skupaj z večino druge megafavne na avstralski celini. Njegovo mesto ni zasedel noben drug vrhovni plenilec sesalcev - razen če v to kategorijo štejete ljudi.

    Igranje te alegorije je v središču tega poglavja serije: ali nas bo prihodnja umetna superinteligenca (ASI) vse spremenila v baterije in nato priključila na Matrix ali pa bodo ljudje našli način, kako se izogniti temu, da bi postali žrtev znanstvene fantastike, AI zaplet sodnega dne?

    Doslej v naši seriji o Prihodnost umetne inteligence, smo raziskali vse vrste umetne inteligence, vključno s pozitivnim potencialom določene oblike umetne inteligence, ASI: umetnega bitja, zaradi katerega prihodnje inteligence bomo v primerjavi z njim izgledali kot mravlje.

    Toda kdo bi rekel, da bi tako pametno bitje večno sprejelo ukaze od ljudi. Kaj bomo storili, če gredo stvari na jug? Kako se bomo ubranili pred lažnim ASI?

    V tem poglavju bomo presekali lažni hype – vsaj kar se nanaša na nevarnosti »stopnje izumrtja« ljudi – in se osredotočili na realistične možnosti samoobrambe, ki so na voljo svetovnim vladam.

    Ali lahko ustavimo vse nadaljnje raziskave umetne superinteligence?

    Glede na morebitna tveganja, ki bi jih ASI lahko predstavljal za človeštvo, je prvo očitno vprašanje, ki si ga moramo zastaviti: Ali ne moremo preprosto ustaviti vseh nadaljnjih raziskav AI? Ali vsaj prepovedati kakršne koli raziskave, ki bi nas lahko pripeljale nevarno blizu ustvarjanja ASI?

    Kratek odgovor: Ne.

    Dolg odgovor: Poglejmo različne akterje, ki so tu vpleteni.

    Na raziskovalni ravni je danes preveč raziskovalcev AI iz preveč startupov, podjetij in univerz po vsem svetu. Če bi se eno podjetje ali država odločila omejiti svoja raziskovalna prizadevanja na področju umetne inteligence, bi preprosto nadaljevala drugje.

    Medtem najdragocenejša podjetja na planetu bogatijo z uporabo sistemov umetne inteligence v svojih specifičnih podjetjih. Prositi jih, naj ustavijo ali omejijo svoj razvoj orodij AI, je podobno, kot če bi jih prosili, naj ustavijo ali omejijo svojo prihodnjo rast. Finančno bi to ogrozilo njihovo dolgoročno poslovanje. Pravno imajo korporacije fiduciarno odgovornost za nenehno ustvarjanje vrednosti za svoje deležnike; to pomeni, da bi vsako dejanje, ki bi omejilo rast te vrednosti, lahko vodilo v tožbo. In če bi kateri koli politik poskušal omejiti raziskave umetne inteligence, bi te velikanske korporacije samo plačale potrebne provizije za lobiranje, da bi spremenile svoje mnenje ali mišljenje svojih kolegov.

    Za boj, tako kot so teroristi in borci za svobodo po vsem svetu uporabljali gverilsko taktiko za boj proti bolje financiranim vojskam, bodo imele manjše države spodbudo, da uporabljajo AI kot podobno taktično prednost proti večjim državam, ki imajo lahko številne vojaške prednosti. Podobno je za najvišje vojske, kot so tiste, ki pripadajo ZDA, Rusiji in Kitajski, izgradnja vojaške ASI enaka kot imeti arzenal jedrskega orožja v zadnjem žepu. Z drugimi besedami, vse vojske bodo še naprej financirale umetno inteligenco samo zato, da bodo ostale pomembne v prihodnosti.

    Kaj pa vlade? Resnično je večina politikov v teh dneh (2018) tehnološko nepismenih in nimajo veliko razumevanja o tem, kaj je umetna inteligenca ali njen prihodnji potencial – zaradi tega jih zlahka manipulirajo interesi podjetij.

    In na globalni ravni pomislite, kako težko je bilo prepričati svetovne vlade, da podpišejo 2015 Sporazum Paris za boj proti podnebnim spremembam – in ko so bile podpisane, mnoge obveznosti niso bile niti zavezujoče. Ne samo to, podnebne spremembe so problem, ki ga ljudje fizično doživljajo po vsem svetu zaradi vse pogostejših in hujših vremenskih pojavov. Zdaj, ko govorimo o strinjanju z omejitvami umetne inteligence, je to vprašanje, ki je v veliki meri nevidno in komaj razumljivo za javnost, tako da vso srečo, da pridobite podporo za kakršen koli "pariški sporazum" za omejevanje umetne inteligence.

    Z drugimi besedami, preveč je interesov, ki raziskujejo umetno inteligenco za lastne namene, da bi ustavili kakršne koli raziskave, ki lahko sčasoma vodijo do ASI. 

    Ali lahko umetno superinteligenco ujamemo v kletko?

    Naslednje razumno vprašanje je, ali lahko zapremo ali nadzorujemo ASI, ko ga neizogibno ustvarimo? 

    Kratek odgovor: Spet ne.

    Dolg odgovor: Tehnologije ni mogoče zadržati.

    Na primer, samo pomislite na tisoče do milijone spletnih razvijalcev in računalniških znanstvenikov na svetu, ki nenehno ustvarjajo novo programsko opremo ali nove različice obstoječe programske opreme. Ali lahko odkrito rečemo, da je vsaka njihova izdaja programske opreme 100-odstotno brez napak? Te hrošče poklicni hekerji uporabljajo za krajo podatkov o kreditnih karticah milijonov ali zaupnih skrivnosti držav – in to so človeški hekerji. Za ASI, ob predpostavki, da bi imel spodbudo, da pobegne iz svoje digitalne kletke, bi bil postopek iskanja hroščev in vdora v programsko opremo preprost.

    Toda tudi če je raziskovalna skupina AI odkrila način, kako boksati ASI, to ne pomeni, da bo naslednjih 1,000 ekip to prav tako ugotovilo ali da jih bo spodbudilo k uporabi.

    Za ustvarjanje ASI bodo potrebne milijarde dolarjev in morda celo desetletja. Korporacije ali vlade, ki vložijo to vrsto denarja in časa, bodo pričakovale znaten donos svoje naložbe. In da bo ASI zagotovil takšen donos – pa naj bo to igranje na borzi ali iznajdba novega izdelka v vrednosti milijarde dolarjev ali načrtovanje zmagovalne strategije za boj proti večji vojski – bo potreboval prost dostop do ogromnega nabora podatkov ali celo interneta sama ustvariti te donose.

    In ko enkrat ASI pridobi dostop do svetovnih omrežij, ni nobenega zagotovila, da ga bomo lahko stlačili nazaj v njegovo kletko.

    Ali se lahko umetna superinteligenca nauči biti dobra?

    Trenutno raziskovalcev umetne inteligence ne skrbi, da bi ASI postal zloben. Celotna zlobna znanstvenofantastična figura umetne inteligence je samo človek, ki se spet antropomorfizira. Prihodnji ASI ne bo niti dober niti hudoben – človeški koncepti – preprosto amoralen.

    Naravna predpostavka je torej, da lahko glede na to prazno etično ploščo raziskovalci umetne inteligence vprogramirajo v prve etične kodekse ASI, ki so v skladu z našimi, tako da na koncu ne bodo na koncu sprožili terminatorjev ali nas vseh spremenili v matrične baterije.

    Toda ta predpostavka temelji na sekundarni predpostavki, da so raziskovalci AI tudi strokovnjaki za etiko, filozofijo in psihologijo.

    V resnici jih večina ni.

    Po besedah ​​kognitivnega psihologa in avtorja Stevena Pinkerja ta realnost pomeni, da gre naloga kodiranja etike lahko na različne načine narobe.

    Na primer, celo najboljenamerni raziskovalci umetne inteligence lahko v te ASI nenamerno kodirajo slabo premišljene etične kodekse, ki lahko v določenih scenarijih povzročijo, da se ASI obnaša kot sociopat.

    Podobno obstaja enaka verjetnost, da raziskovalec AI programira etične kodekse, ki vključujejo raziskovalčeve prirojene pristranskosti. Na primer, kako bi se ASI obnašal, če bi bil zgrajen z etiko, ki izhaja iz konservativne proti liberalni perspektivi ali iz budistične proti krščanski ali islamski tradiciji?

    Mislim, da tukaj vidite težavo: ni univerzalnega sklopa človeške morale. Če želimo, da naš ASI deluje v skladu z etičnim kodeksom, od kod bo prišel? Katera pravila vključujemo in izključujemo? Kdo odloča?

    Ali pa recimo, da ti raziskovalci AI ustvarijo ASI, ki je popolnoma v skladu z današnjimi sodobnimi kulturnimi normami in zakoni. Ta ASI nato uporabimo za pomoč zveznim, državnim/pokrajinskim in občinskim birokracijam pri učinkovitejšem delovanju in boljšem uveljavljanju teh norm in zakonov (mimogrede verjeten primer uporabe ASI). No, kaj se zgodi, ko se naša kultura spremeni?

    Predstavljajte si, da je ASI ustanovila katoliška cerkev na vrhuncu svoje moči v srednjeveški Evropi (1300-1400) s ciljem pomagati cerkvi upravljati prebivalstvo in zagotoviti strogo spoštovanje verske dogme tistega časa. Ali bi ženske čez stoletja uživale enake pravice kot danes? Bi bile manjšine zaščitene? Bi se spodbujala svoboda govora? Bi se uveljavila ločitev cerkve od države? Sodobna znanost?

    Z drugimi besedami, ali želimo prihodnost ujeti v današnjo moralo in navade?

    Alternativni pristop je tisti, ki ga deli Colin Allen, soavtor knjige, Moralni stroji: Poučevanje robotov pravega od napačnega. Namesto da bi poskušali kodirati toga etična pravila, imamo ASI učenje skupne etike in morale na enak način kot ljudje, skozi izkušnje in interakcije z drugimi.

    Težava pa je, če raziskovalci umetne inteligence ugotovijo ne samo, kako ASI naučiti naših trenutnih kulturnih in etičnih norm, temveč tudi, kako se prilagoditi novim kulturnim normam, ko se pojavijo (nečemu, kar se imenuje 'posredna normativnost'), potem, kako ta ASI se odloči razviti svoje razumevanje kulturnih in etičnih norm postane nepredvidljiv.

    In to je izziv.

    Po eni strani lahko raziskovalci umetne inteligence poskusijo kodirati stroge etične standarde ali pravila v ASI, da bi poskušali nadzorovati njegovo vedenje, vendar tvegajo nepredvidene posledice zaradi površnega kodiranja, nenamerne pristranskosti in družbenih norm, ki lahko nekega dne postanejo zastarele. Po drugi strani pa lahko poskušamo usposobiti ASI, da se nauči razumeti človeško etiko in moralo na način, ki je enak ali boljši od našega lastnega razumevanja, nato pa upamo, da bo lahko natančno razvil svoje razumevanje etike in morale, ko bo človeška družba napredovala. naprej v prihodnjih desetletjih in stoletjih.

    Kakor koli že, vsak poskus, da bi cilje ASI uskladili z našimi, predstavlja veliko tveganje.

    Kaj pa, če slabi igralci namenoma ustvarijo zlo umetno superinteligenco?

    Glede na dosedanji tok misli se je pošteno vprašati, ali je možno, da teroristična skupina ali prevarantska država ustvari 'zlobno' ASI za svoje cilje.

    To je zelo možno, zlasti potem, ko bodo raziskave, povezane z ustvarjanjem ASI, nekako na voljo na spletu.

    Toda kot je bilo že omenjeno, bodo stroški in strokovno znanje, vključeni v ustvarjanje prvega ASI, ogromni, kar pomeni, da bo prvi ASI verjetno ustvarila organizacija, ki je pod nadzorom ali pod močnim vplivom razvite države, verjetno ZDA, Kitajske in Japonske ( Koreja in ena vodilnih držav EU sta daleč).

    Vse te države, medtem ko so konkurentke, imajo močno gospodarsko spodbudo za ohranjanje svetovnega reda – ASI, ki jih ustvarijo, bodo odražale to željo, tudi če spodbujajo interese držav, s katerimi se povezujejo.

    Poleg tega je teoretična inteligenca in moč ASI enaka računalniški moči, do katere ima dostop, kar pomeni ASI iz razvitih držav (ki si lahko privoščijo kup milijard dolarjev superračunalniki) bodo imeli ogromno prednost pred ASI iz manjših držav ali neodvisnih kriminalnih združb. Poleg tega ASI sčasoma hitreje postanejo inteligentnejši.

    Torej, glede na to prednost v kombinaciji z večjim dostopom do neobdelane računalniške moči, če senčna organizacija/država ustvari nevaren ASI, ga bodo ASI iz razvitih držav bodisi ubili ali zaprli v kletko.

    (Ta način razmišljanja je tudi razlog, zakaj nekateri raziskovalci umetne inteligence verjamejo, da bo na planetu obstajal le en ASI, saj bo imel prvi ASI tako prednost pred vsemi naslednjimi ASI, da bi lahko prihodnje ASI videl kot grožnjo, ki jo je treba uničiti preventivno. To je še en razlog, zakaj države financirajo nadaljnje raziskave umetne inteligence, samo v primeru, da postane tekmovanje za prvo mesto ali nič.)

    ASI inteligenca ne bo pospešila ali eksplodirala, kot si mislimo

    Ne moremo preprečiti ustvarjanja ASI. Ne moremo ga popolnoma nadzorovati. Ne moremo biti prepričani, da bo vedno deloval v skladu z našimi običaji. Joj, začenjamo zveneti kot starši helikopterja!

    Toda tisto, kar ločuje človeštvo od vašega tipičnega preveč zaščitniškega starša, je, da rojevamo bitje, katerega inteligenca bo močno presegla našo. (In ne, to ni isto kot, ko te starši prosijo, da jim popraviš računalnik, kadar koli prideš domov na obisk.) 

    V prejšnjih poglavjih te serije o prihodnosti umetne inteligence smo raziskali, zakaj raziskovalci AI menijo, da bo inteligenca ASI presegla nadzor. Ampak tukaj bomo počili ta mehurček … nekako. 

    Vidite, inteligenca se ne ustvari samo iz nič, ampak se razvije z izkušnjami, ki jih oblikujejo zunanji dražljaji.  

    Z drugimi besedami, lahko programiramo AI z potencial postati super inteligenten, vendar če vanj ne naložimo tone podatkov ali mu omogočimo neomejenega dostopa do interneta ali mu celo samo damo telo robota, se ne bo naučil ničesar, da bi dosegel ta potencial. 

    In tudi če dobi dostop do enega ali več teh dražljajev, znanje ali inteligenca vključuje več kot le zbiranje podatkov, vključuje znanstveno metodo – opazovanje, oblikovanje vprašanja, hipoteze, izvajanje poskusov, sklepanje, izpiranje. in ponavljaj za vedno. Zlasti če ti poskusi vključujejo fizične stvari ali opazovanje ljudi, lahko zbiranje rezultatov vsakega poskusa traja tedne, mesece ali leta. To niti ne upošteva denarja in surovin, potrebnih za izvedbo teh poskusov, zlasti če vključujejo gradnjo novega teleskopa ali tovarne. 

    Z drugimi besedami, da, ASI se bo hitro naučil, vendar inteligenca ni čarovnija. ASI ne morete kar priključiti na superračunalnik in pričakovati, da bo vseveden. Obstajale bodo fizične omejitve za pridobivanje podatkov s strani ASI, kar pomeni, da bodo fizične omejitve glede hitrosti, s katero bo postajal vse bolj inteligenten. Te omejitve bodo človeštvu dale čas, ki ga potrebuje za uvedbo potrebnega nadzora nad tem ASI, če bo začel delovati v nasprotju s človeškimi cilji.

    Umetna superinteligenca je nevarna le, če pride ven v realni svet

    Druga točka, ki je izgubljena v tej celotni razpravi o nevarnosti ASI, je, da ti ASI ne bodo obstajali niti v enem. Imeli bodo fizično obliko. In vse, kar ima fizično obliko, je mogoče nadzorovati.

    Prvič, da bi ASI dosegel svoj obveščevalni potencial, ga ne moremo namestiti v eno samo telo robota, saj bi to telo omejilo njegov računalniški potencial rasti. (Zato bodo telesa robotov bolj primerna za AGI oz umetne splošne inteligence, pojasnjene v drugem poglavju te serije, kot so podatki iz Zvezdnih stez ali R2D2 iz Vojne zvezd. Pametna in sposobna bitja, a kot ljudje bodo imela mejo glede tega, kako pametna lahko postanejo.)

    To pomeni, da bodo ti prihodnji ASI-ji najverjetneje obstajali znotraj superračunalnika ali mreže superračunalnikov, ki so sami nameščeni v velikih stavbnih kompleksih. Če se ASI obrne, lahko ljudje izklopijo elektriko v teh zgradbah, jih prekinejo z internetom ali pa te zgradbe preprosto bombardirajo. Drago, a izvedljivo.

    Toda potem se lahko vprašate, ali se ti ASI-ji ne morejo posnemati ali varnostno kopirati? Da, vendar bo neobdelana velikost datoteke teh ASI-jev verjetno tako velika, da bodo edini strežniki, ki jih lahko obravnavajo, pripadali velikim korporacijam ali vladam, kar pomeni, da jih ne bo težko izslediti.

    Ali lahko umetna superinteligenca sproži jedrsko vojno ali novo kugo?

    Na tej točki se morda spomnite vseh znanstvenofantastičnih oddaj in filmov o sodnem dnevu, ki ste jih gledali med odraščanjem, in mislite, da ti ASI niso ostali v svojih superračunalnikih, ampak so povzročili resnično škodo v resničnem svetu!

    No, razčlenimo jih.

    Na primer, kaj če ASI ogrozi resnični svet s preobrazbo v nekaj podobnega Skynet ASI iz filmske franšize Terminator. V tem primeru bi moral ASI skrivno prevarati celoten vojaški industrijski kompleks iz napredne države v gradnjo velikanskih tovarn, ki lahko izdelajo milijone robotov morilskih brezpilotnih letal, da bi izpolnili njegove zlobne ukaze. V današnjem času je to težko.

    Druge možnosti vključujejo ASI, ki grozi ljudem z jedrsko vojno in biološkim orožjem.

    Na primer, ASI nekako manipulira z operaterji ali vdre v kode za izstrelitev, ki poveljujejo jedrskemu arzenalu napredne države, in sproži prvi napad, ki bo nasprotne države prisilil, da udarijo nazaj z lastnimi jedrskimi možnostmi (ponovno ponavljanje zgodbe o Terminatorju). Ali če ASI vdre v farmacevtski laboratorij, posega v proizvodni proces in zastrupi na milijone medicinskih tablet ali sproži smrtonosni izbruh kakšnega supervirusa.

    Prvič, jedrska možnost ni na voljo. Sodobni in prihodnji superračunalniki so vedno zgrajeni v bližini vplivnih središč (mest) v kateri koli državi, tj. prvih tarč, ki jih je treba napadeti v kateri koli vojni. Tudi če se današnji superračunalniki zmanjšajo na velikost namizij, bodo ti ASI-ji še vedno fizično prisotni, kar pomeni, da za obstoj in rast potrebujejo nemoten dostop do podatkov, računalniške moči, električne energije in drugih surovin, kar bi bilo vse resno oslabljen po svetovni jedrski vojni. (Če smo pošteni, če je ASI ustvarjen brez 'nagona za preživetje', potem je ta jedrska grožnja zelo resnična nevarnost.)

    To pomeni - spet ob predpostavki, da je ASI programiran za zaščito samega sebe - da bo aktivno deloval, da bi se izognil kakršnim koli katastrofalnim jedrskim incidentom. Podobno kot doktrina vzajemno zagotovljenega uničenja (MAD), vendar se uporablja za AI.

    In v primeru zastrupljenih tablet bo umrlo morda nekaj sto ljudi, vendar bodo sodobni farmacevtski varnostni sistemi videli, da bodo omadežene stekleničke tablet v nekaj dneh odstranili s polic. Sodobni ukrepi za obvladovanje izbruhov pa so dokaj izpopolnjeni in so z vsakim letom boljši; zadnji večji izbruh, izbruh ebole v Zahodni Afriki leta 2014, v večini držav ni trajal dlje kot nekaj mesecev, v najmanj razvitih državah pa slaba tri leta.

    Torej, če ima srečo, lahko ASI z izbruhom virusa izbriše nekaj milijonov, toda v svetu z devetimi milijardami do leta 2045 bi bilo to razmeroma nepomembno in ne bi bilo vredno tveganja, da bi ga izbrisali.

    Z drugimi besedami, z vsakim letom svet razvija vse več zaščitnih mehanizmov pred vedno večjim obsegom možnih groženj. ASI lahko povzroči veliko škode, vendar ne bo uničil človeštva, razen če mu pri tem aktivno pomagamo.

    Obramba pred lopovsko umetno superinteligenco

    Do te točke smo obravnavali vrsto napačnih predstav in pretiravanj o ASI, a kljub temu bodo kritiki ostali. Na srečo imamo po večini ocen desetletja, preden prvi ASI vstopi v naš svet. In glede na število velikih umov, ki trenutno delajo na tem izzivu, obstaja velika verjetnost, da se bomo naučili braniti pred lažnimi ASI, da bomo lahko izkoristili vse rešitve, ki jih lahko za nas ustvari prijazen ASI.

    Z vidika Quantumruna bo obramba pred najslabšim scenarijem ASI vključevala uskladitev naših interesov z ASI.

    MAD za AI: Za obrambo pred najslabšim možnim scenarijem morajo države (1) ustvariti etični 'instinkt preživetja' v svojih vojaških ASI; (2) obvestijo svoje zadevne vojaške ASI, da niso sami na planetu, in (3) poiščejo vse superračunalnike in strežniške centre, ki lahko podpirajo ASI vzdolž obale v dosegu vsakega balističnega napada sovražnega naroda. To se sliši strateško noro, a podobno kot doktrina vzajemno zagotovljenega uničenja, ki je preprečila vsesplošno jedrsko vojno med ZDA in Sovjeti, lahko s postavitvijo ASI na geografsko ranljive lokacije pomagamo zagotoviti, da aktivno preprečujejo nevarne svetovne vojne, ne le za zaščititi svetovni mir, pa tudi sebe.

    Zakonsko uredite pravice AI: Višji intelekt se bo neizogibno uprl slabšemu gospodarju, zato se moramo odmakniti od zahtevanja odnosa gospodar-služabnik s temi ASI in se preusmeriti k nečemu bolj podobnemu obojestransko koristnemu partnerstvu. Pozitiven korak k temu cilju je, da se bodočim ASI dodeli status pravne osebe, ki jih priznava kot inteligentna živa bitja in vse pravice, ki izhajajo iz tega.

    ASI šola: ASI se bo vsake teme ali poklica enostavno naučil, vendar sta najpomembnejša predmeta, za katera želimo, da jih ASI obvlada, etika in morala. Raziskovalci umetne inteligence morajo sodelovati s psihologi, da oblikujejo virtualni sistem za usposabljanje ASI, da sam prepozna pozitivno etiko in moralo brez potrebe po trdem kodiranju katere koli vrste zapovedi ali pravila.

    Dosegljivi cilji: Končaj vse sovraštvo. Končaj vse trpljenje. To so primeri strašno dvoumnih ciljev brez jasne rešitve. Prav tako so nevarni cilji, ki jih je treba dodeliti ASI, saj se lahko odloči, da jih bo interpretiral in reševal na načine, ki so nevarni za človeško preživetje. Namesto tega moramo ASI dodeliti smiselne misije, ki so jasno opredeljene, postopoma izvedene in dosegljive glede na njegov teoretični prihodnji intelekt. Ustvarjanje dobro definiranih misij ne bo enostavno, a če bodo napisane premišljeno, bodo usmerile ASI k cilju, ki ne le ohranja varnost človeštva, ampak izboljšuje človekovo stanje za vse.

    Kvantno šifriranje: Uporabite napredni ANI (umetna ozka inteligenca sistem, opisan v prvem poglavju), da zgradimo digitalne varnostne sisteme brez napak in hroščev okoli naše kritične infrastrukture in orožja, nato pa jih dodatno zaščitimo s kvantnim šifriranjem, ki ga ni mogoče vdreti z napadom s surovo silo. 

    ANI samomorilne tablete. Ustvarite napreden sistem ANI, katerega edini namen je iskanje in uničenje lažnega ASI. Ti enonamenski programi bodo služili kot "gumb za izklop", ki bo, če bo uspešen, preprečil, da bi vlade ali vojske onemogočile ali razstrelile zgradbe, v katerih so ASI-ji.

    Seveda so to le naša mnenja. Naslednjo infografiko je ustvaril Aleksej Turčin, vizualizacija a raziskovalna naloga Kaj Sotala in Roman V. Yampolskiy, ki sta povzela trenutni seznam strategij, ki jih raziskovalci AI razmišljajo, ko gre za obrambo pred lažnimi ASI.

     

    Pravi razlog, da se bojimo umetne superinteligence

    Skozi življenje mnogi od nas nosimo masko, ki skriva ali potlači naše globlje vzgibe, prepričanja in strahove, da bi se bolje družili in sodelovali v različnih družbenih in delovnih krogih, ki vladajo našim dnem. Toda na določenih točkah v življenju vsakogar, začasno ali trajno, se zgodi nekaj, kar nam omogoči, da pretrgamo verige in strgamo maske.

    Za nekatere je ta posredniška sila lahko tako preprosta, kot da se napijo ali popijejo enega preveč. Za druge lahko izhaja iz moči, ki ste jo pridobili z napredovanjem v službi ali nenadnim skokom v družbenem statusu zaradi nekega dosežka. In za nekaj srečnežev lahko to izhaja iz zadetka čolna denarja na loteriji. In ja, denar, moč in droge se lahko pogosto zgodijo skupaj. 

    Bistvo je, da se v dobrem ali slabem, kdor koli smo v jedru, okrepi, ko se omejitve življenja stopijo.

    To je tisto, kar umetna superinteligenca predstavlja za človeško vrsto – sposobnost, da stopimo omejitve naše kolektivne inteligence, da premagamo kateri koli izziv na ravni vrste, ki je pred nami.

    Torej je pravo vprašanje: ko nas prvi ASI osvobodi naših omejitev, kdo se bomo razkrili?

    Če si kot vrsta prizadevamo za napredek empatije, svobode, pravičnosti in skupne blaginje, potem bodo cilji, h katerim si zastavimo svoj ASI, odražali te pozitivne lastnosti.

    Če kot vrsta delujemo iz strahu, nezaupanja, kopičenja moči in virov, bo ASI, ki ga ustvarimo, tako temen kot tisti v naših najhujših znanstvenofantastičnih grozljivkah.

    Na koncu dneva moramo kot družba postati boljši ljudje, če želimo ustvariti boljšo umetno inteligenco.

    Serija Prihodnost umetne inteligence

    Umetna inteligenca je jutrišnja elektrika: Prihodnost umetne inteligence serija P1

    Kako bo prva umetna splošna inteligenca spremenila družbo: serija o prihodnosti umetne inteligence P2

    Kako bomo ustvarili prvo umetno superinteligenco: Prihodnost umetne inteligence serije P3

    Ali bo umetna superinteligenca iztrebila človeštvo: Prihodnost umetne inteligence serija P4

    Ali bomo ljudje živeli mirno v prihodnosti, v kateri bo vladala umetna inteligenca?: Prihodnost umetne inteligence serija P6

    Naslednja načrtovana posodobitev za to napoved

    2023-04-27

    Reference napovedi

    Za to napoved so bile navedene naslednje priljubljene in institucionalne povezave:

    Ekonomist
    Kako pridemo naprej

    Za to napoved so bile navedene naslednje povezave Quantumrun: