Kuidas inimesed kaitsevad tehisintellekti eest: tehisintellekti tulevik P5

PILDIKrediit: Quantumrun

Kuidas inimesed kaitsevad tehisintellekti eest: tehisintellekti tulevik P5

    Aasta on 65,000 XNUMX eKr ja nagu a Thylacoleo, teie ja teiesugused olid iidse Austraalia suured jahimehed. Rändasite mööda maad vabalt ringi ja elasite tasakaalus kaaskiskjate ja saakloomadega, kes teie kõrval maad hõivasid. Aastaajad tõid kaasa muutusi, kuid teie staatus loomariigis püsis vaieldamatu nii kaua, kui teie ja teie esivanemad mäletasid. Siis ühel päeval ilmusid uued tulijad.

    Kuulujutt on, et nad saabusid hiiglaslikust veeseinast, kuid need olendid tundusid maal mugavam elada. Sa pidid neid olendeid ise nägema.

    See võttis paar päeva, kuid lõpuks jõudsite rannikule. Tuli taevas oli kustumas, ideaalne aeg nende olendite järele luuramiseks, võib-olla isegi proovida üks süüa, et näha, kuidas nad maitsevad.

    Sa märkad ühe.

    See kõndis kahel jalal ja tal polnud karva. See nägi nõrk välja. Muljetavaldav. Vaevalt seda hirmu väärt, mida see kuningriigis tekitas.

    Hakkate ettevaatlikult lähenema, kui öö ajab valguse minema. Sa jõuad lähemale. Siis külmutad. Kostab valju müra ja siis ilmub selle tagant metsast välja veel neli. Kui palju neid on?

    Olend järgneb teistele puujoonele ja teie järgite. Ja mida rohkem teete, seda kummalisemaid helisid kuulete, kuni märkate neid olendeid veelgi rohkem. Jälgite eemalt, kui nad väljuvad metsast kaldaäärsele lagendikule. Neid on palju. Kuid mis veelgi olulisem, nad istuvad kõik rahulikult lõkke ümber.

    Olete neid tulekahjusid varem näinud. Kuumal aastaajal külastas taevatuli mõnikord maad ja põletas maha terveid metsi. Need olendid seevastu kuidagi kontrollisid seda. Millistel olenditel võib selline jõud olla?

    Vaatad kaugusesse. Üle hiiglasliku veeseina tuleb neid juurde.

    Astute sammu tagasi.

    Need olendid ei ole nagu teised kuningriigis. Need on midagi täiesti uut.

    Otsustate lahkuda ja hoiatate oma sugulasi. Kui nende arv kasvab liiga suureks, kes teab, mis võib juhtuda.

    ***

    Arvatakse, et Thylacoleo suri välja suhteliselt lühikest aega pärast inimeste saabumist koos enamiku teiste Austraalia mandri megafaunadega. Selle asemele ei asunud ükski teine ​​tipuimetajate kiskja – kui just inimesi sellesse kategooriasse ei loeta.

    Selle sarja peatüki keskmes on selle allegooria mahamängimine: kas tulevane tehissuperintellekt (ASI) muudab meid kõiki akudeks ja ühendab meid siis Maatriksiga või leiavad inimesed, kuidas vältida ulme ohvriks langemist, AI viimsepäeva süžee?

    Seni meie seerias teemal Tehisintellekti tulevik, oleme uurinud igasuguseid tehisintellekti, sealhulgas tehisintellekti konkreetse vormi – ASI – positiivset potentsiaali: tehisolend, kelle tulevane intelligents muudab meid sellega võrreldes sipelgateks.

    Aga kes võib öelda, et nii tark olend nõustuks igavesti inimestelt korraldusi vastu võtma. Mida me teeme, kui asjad lähevad lõunasse? Kuidas me kaitseme petturi ASI eest?

    Selles peatükis lõikame läbi võltshüpe – vähemalt selles osas, mis on seotud „inimese väljasuremistaseme” ohtudega – ja keskendume maailma valitsustele kättesaadavatele realistlikele enesekaitsevõimalustele.

    Kas me saame peatada kõik edasised tehissuperintellekti uuringud?

    Arvestades võimalikke riske, mida ASI võib inimkonnale kujutada, on esimene ilmne küsimus, mida küsida: kas me ei saa lihtsalt lõpetada kõik edasised AI-uuringud? Või vähemalt keelata kõik uuringud, mis võivad meid ASI loomisele ohtlikult lähedale viia?

    Lühike vastus: Ei.

    Pikk vastus: vaatame siin kaasatud erinevaid mängijaid.

    Teadusuuringute tasandil on tänapäeval liiga palju AI-teadlasi liiga paljudest idufirmadest, ettevõtetest ja ülikoolidest üle maailma. Kui üks ettevõte või riik otsustaks oma tehisintellekti uurimistööd piirata, jätkaksid nad lihtsalt mujal.

    Samal ajal teenivad planeedi kõige väärtuslikumad ettevõtted oma varandust tehisintellektisüsteemide rakendamisest oma konkreetsetes ettevõtetes. Kui paluda neil peatada või piirata oma tehisintellekti tööriistade väljatöötamist, on see sama, kui paluda neil peatada või piirata oma tulevast kasvu. Rahaliselt ohustaks see nende pikaajalist äritegevust. Juriidiliselt on ettevõtetel usaldusvastutus oma sidusrühmade jaoks pideva väärtuse loomise eest; see tähendab, et iga tegevus, mis piiraks selle väärtuse kasvu, võib viia kohtuasjani. Ja kui mõni poliitik prooviks tehisintellektiuuringuid piirata, maksaksid need hiiglaslikud korporatsioonid lihtsalt vajalikke lobitöötasusid, et oma või kolleegide meelt muuta.

    Nii nagu terroristid ja vabadusvõitlejad üle maailma on kasutanud sissitaktikat paremini rahastatud sõjaväelaste vastu võitlemiseks, on väiksematel riikidel stiimul kasutada tehisintellekti sarnase taktikalise eelisena suuremate riikide ees, millel võib olla mitmeid sõjalisi eeliseid. Samamoodi on tippsõjaväelaste jaoks, nagu need, kes kuuluvad USA-le, Venemaale ja Hiinale, sõjalise ASI ehitamine samaväärne tuumarelvade arsenali omamisega tagataskus. Teisisõnu jätkavad kõik sõjaväelased tehisintellekti rahastamist, et olla tulevikus asjakohane.

    Kuidas on lood valitsustega? Tõsi, enamik poliitikuid on tänapäeval (2018) tehnoloogiliselt kirjaoskamatud ja neil on vähe arusaamist tehisintellektist või selle tulevasest potentsiaalist – see muudab nendega hõlpsasti manipuleeritavaks ettevõtete huvides.

    Ja globaalsel tasandil mõelge sellele, kui raske oli veenda maailma valitsusi 2015. aasta lepingule alla kirjutama Paris lepingu kliimamuutuste vastu võitlemiseks – ja pärast allakirjutamist ei olnud paljud kohustused isegi siduvad. Vähe sellest, kliimamuutused on probleem, mida inimesed kogu maailmas füüsiliselt kogevad üha sagedasemate ja raskemate ilmastikunähtuste tõttu. Rääkides tehisintellekti piirangutega nõustumisest, on see probleem, mis on üldsusele suures osas nähtamatu ja vaevu mõistetav, nii et palju õnne tehisintellekti piirava igasuguse Pariisi kokkuleppe sisseostu saamiseks.

    Teisisõnu, on liiga palju huvisid, kes uurivad tehisintellekti oma eesmärkidel, et peatada kõik uuringud, mis võivad lõpuks viia ASI-ni. 

    Kas me saame tehissuperintellekti puuri panna?

    Järgmine mõistlik küsimus on, kas saame ASI-d puuri panna või juhtida, kui oleme selle paratamatult loonud? 

    Lühike vastus: Jällegi, ei.

    Pikk vastus: tehnoloogiat ei saa ohjeldada.

    Mõelge näiteks tuhandetele kuni miljonitele veebiarendajatele ja arvutiteadlastele maailmas, kes pidevalt uut tarkvara või olemasoleva tarkvara uusi versioone välja müüvad. Kas võime ausalt öelda, et iga nende tarkvara väljalase on 100 protsenti veavaba? Neid vigu kasutavad professionaalsed häkkerid miljonite krediitkaarditeabe või riikide salastatud saladuste varastamiseks – ja need on inimhäkkerid. Eeldades, et ASI jaoks on stiimul oma digitaalsest puurist põgeneda, oleks vigade leidmine ja tarkvarast läbimurdmine imelihtne.

    Kuid isegi kui tehisintellekti uurimisrühm leidis välja viisi, kuidas ASI kasti panna, ei tähenda see, et ka järgmised 1,000 meeskonda selle välja mõtlevad või motiveeritakse seda kasutama.

    ASI loomiseks kulub miljardeid dollareid ja võib-olla isegi aastakümneid. Sellist raha ja aega investeerivad ettevõtted või valitsused ootavad oma investeeringult märkimisväärset tulu. Ja selleks, et ASI saaks sellist tulu pakkuda – olgu selleks siis aktsiaturu mängimine või uue miljardi dollari suuruse toote leiutamine või võidustrateegia kavandamine suurema armee vastu võitlemiseks –, vajab ta tasuta juurdepääsu hiiglaslikule andmekogule või isegi Internetile. ise need tulud toota.

    Ja kui ASI saab juurdepääsu maailma võrkudele, pole mingit garantiid, et suudame selle oma puuri tagasi toppida.

    Kas tehissuperintellekt saab õppida hea olema?

    Praegu ei ole AI-uurijad mures ASI kurjaks muutumise pärast. Kogu see kuri, tehisintellekti ulmeline troop on lihtsalt inimeste antropomorfiseerimine. Tulevane ASI ei ole ei hea ega kuri – inimkontseptsioonid – lihtsalt amoraalne.

    Loomulik eeldus on siis see, et seda tühja eetilist lehte arvestades saavad tehisintellekti teadlased programmeerida esimesse ASI eetikakoodeksisse, mis on kooskõlas meie omadega, nii et see ei vabastaks meid terminaatoreid ega muudaks meid kõiki Matrixi akudeks.

    Kuid see eeldus on teisejärguline eeldus, et tehisintellekti teadlased on ka eetika, filosoofia ja psühholoogia eksperdid.

    Tegelikult enamik ei ole.

    Kognitiivpsühholoogi ja autori Steven Pinkeri sõnul tähendab see reaalsus, et eetika kodeerimise ülesanne võib mitmel erineval viisil valesti minna.

    Näiteks võivad isegi parimate kavatsustega tehisintellekti teadlased nendesse ASI halvasti läbimõeldud eetikakoodeksitesse tahtmatult sisse kodeerida, mis teatud stsenaariumide korral võivad ASI-d käituda nagu sotsiopaat.

    Samuti on võrdne tõenäosus, et AI-uurija programmeerib eetikakoodekseid, mis hõlmavad uurija kaasasündinud eelarvamusi. Näiteks kuidas käituks ASI, kui selle ehitamisel järgitaks eetikat, mis lähtub konservatiivsest ja liberaalsest vaatenurgast või budistlikust vs kristlikust või islami traditsioonist?

    Ma arvan, et näete siin probleemi: pole olemas universaalset inimmoraali. Kui tahame, et meie ASI toimiks eetikakoodeksi järgi, siis kust see tuleb? Milliseid reegleid me kaasame ja välistame? Kes otsustab?

    Või oletame, et need AI-uurijad loovad ASI, mis on täiesti kooskõlas tänapäevaste kultuurinormide ja seadustega. Seejärel kasutame seda ASI-d, et aidata föderaal-, osariigi/provintsi ja munitsipaalbürokraatiatel tõhusamalt toimida ning neid norme ja seadusi paremini jõustada (muide, ASI puhul on see tõenäoline kasutusjuht). Mis saab siis, kui meie kultuur muutub?

    Kujutage ette, et ASI lõi katoliku kirik oma võimsuse tipul keskaegses Euroopas (1300–1400ndad), eesmärgiga aidata kirikul elanikkonda hallata ja tagada tolleaegse usudogma range järgimine. Kas naistel oleks sajandeid hiljem samad õigused kui praegu? Kas vähemused oleksid kaitstud? Kas sõnavabadust edendataks? Kas kiriku ja riigi lahusus oleks jõustatud? Kaasaegne teadus?

    Teisisõnu, kas me tahame tuleviku vangistada tänaste moraalide ja tavade alla?

    Alternatiivset lähenemisviisi jagab Colin Allen, raamatu kaasautor, Moraalsed masinad: robotite õpetamine valest. Selle asemel, et püüda kodeerida jäikaid eetikareegleid, laseme ASI-l kogemuste ja teistega suhtlemise kaudu õppida tavalist eetikat ja moraali samal viisil nagu inimesed.

    Probleem on aga selles, et kui tehisintellekti teadlased ei mõista mitte ainult seda, kuidas õpetada ASI-le meie praeguseid kultuurilisi ja eetilisi norme, vaid ka seda, kuidas kohaneda uute kultuurinormidega, kui need tekivad (mida nimetatakse kaudseks normatiivsuseks), siis kuidas see ASI otsustab arendada oma arusaama kultuurilistest ja eetilistest normidest muutub ettearvamatuks.

    Ja see ongi väljakutse.

    Ühest küljest võivad tehisintellekti teadlased proovida kodeerida ASI-sse ranged eetilised standardid või reeglid, et proovida ja kontrollida selle käitumist, kuid riskivad ettenägematud tagajärjed, mis tulenevad lohakast kodeerimisest, tahtmatutest eelarvamustest ja ühiskondlikest normidest, mis võivad ühel päeval aeguda. Teisest küljest võime püüda õpetada ASI-d õppima mõistma inimeetikat ja moraali viisil, mis on meie enda arusaamaga võrdne või parem, ning seejärel loota, et ta suudab inimühiskonna edenedes oma arusaama eetikast ja moraalist täpselt arendada. edasi järgmiste aastakümnete ja sajandite jooksul.

    Mõlemal juhul kujutab iga katse viia ASI eesmärke meie omadega vastavusse suure riskiga.

    Mis siis, kui halvad näitlejad loovad sihilikult kurja tehissuperintellekti?

    Arvestades seni välja toodud mõttekäiku, on õiglane küsimus küsida, kas terroristlik rühmitus või petturitest rahvas võib oma eesmärkide nimel luua "kurja" ASI.

    See on vägagi võimalik, eriti pärast seda, kui ASI loomisega seotud uuringud on mingil moel veebis kättesaadavad.

    Kuid nagu varem vihjatud, on esimese ASI loomisega seotud kulud ja teadmised tohutud, mis tähendab, et esimese ASI loob tõenäoliselt organisatsioon, mida kontrollib või mõjutab suuresti arenenud riik, tõenäoliselt USA, Hiina ja Jaapan ( Korea ja üks ELi juhtivaid riike on kaugel).

    Kõigil neil riikidel, kuigi konkurentidel, on tugev majanduslik stiimul maailmakorra säilitamiseks – nende loodud ASI-d peegeldavad seda soovi, isegi kui nad edendavad nende riikide huve, kellega nad joonduvad.

    Peale selle on ASI teoreetiline intelligentsus ja võimsus võrdne arvutusvõimsusega, millele see ligi pääseb, mis tähendab arenenud riikide ASI-sid (kes saavad endale lubada hunniku miljardit dollarit superarvutite) on tohutu eelis väiksemate riikide ASI-de või sõltumatute kuritegelike rühmituste ees. Samuti muutuvad ASI-d aja jooksul intelligentsemaks ja kiiremini.

    Seega, arvestades seda edumaa koos suurema juurdepääsuga töötlemata arvutusvõimsusele, kui varjuline organisatsioon/riik loob ohtliku ASI, arenenud riikide ASI-d kas tapavad selle või panevad selle puuri.

    (See mõtteviis on ka põhjus, miks mõned AI-teadlased usuvad, et planeedil on kunagi ainult üks ASI, kuna esimesel ASI-l on kõigi järgnevate ASI-de ees nii suur edumaa, et see võib näha tulevasi ASI-sid kui ohtu, et neid hävitatakse. See on veel üks põhjus, miks riigid rahastavad jätkuvat tehisintellektialast uurimistööd juhuks, kui sellest saab "esimene koht või mitte midagi" võistlus.)

    ASI intelligentsus ei kiirene ega plahvata, nagu me arvame

    Me ei saa peatada ASI loomist. Me ei saa seda täielikult kontrollida. Me ei saa olla kindlad, et see toimib alati kooskõlas meie ühiste tavadega. Kurat, me hakkame siin kõlama nagu helikopterivanemad!

    Kuid mis eristab inimkonda teie tüüpilisest ülikaitsvast vanemast, on see, et me sünnitame olendi, kelle intelligentsus kasvab tohutult kaugemale meie omast. (Ja ei, see ei ole sama, mis su vanemad paluvad sul oma arvuti korda teha, kui koju külla tuled.) 

    Selle tehisintellekti tulevikusarja eelmistes peatükkides uurisime, miks tehisintellekti teadlased arvavad, et ASI intelligentsus kasvab kontrollimatult. Aga siin me lõhkeme selle mulli ... omamoodi. 

    Näete, intelligentsus ei loo end lihtsalt tühjast õhust, vaid see areneb kogemuste kaudu, mida kujundavad välised stiimulid.  

    Teisisõnu saame AI-d programmeerida potentsiaal et saada üliintelligentseks, kuid kui me ei laadi sinna üles palju andmeid või ei anna talle piiramatut juurdepääsu Internetile või isegi ei anna talle robotkeha, ei õpi ta selle potentsiaali saavutamiseks midagi. 

    Ja isegi kui see saab juurdepääsu ühele või mitmele sellisele stiimulile, teadmistele või luureandmetele, mis hõlmavad enamat kui lihtsalt andmete kogumist, hõlmab see teaduslikku meetodit – vaatluse tegemist, küsimuse, hüpoteesi püstitamist, katsete läbiviimist, järelduste tegemist, loputamist. ja korrake igavesti. Eriti kui need katsed hõlmavad füüsilisi asju või inimeste vaatlemist, võib iga katse tulemuste kogumine võtta nädalaid, kuid või aastaid. See ei võta isegi arvesse nende katsete läbiviimiseks vajalikku raha ja toorainet, eriti kui need hõlmavad uue teleskoobi või tehase ehitamist. 

    Teisisõnu, jah, ASI õpib kiiresti, kuid intelligentsus pole võlu. ASI-d ei saa lihtsalt superarvuti külge ühendada, vaid eeldada, et see on kõiketeadev. ASI andmete hankimisel on füüsilised piirangud, mis tähendab, et intelligentsemaks muutumise kiirusel on füüsilised piirangud. Need piirangud annavad inimkonnale aega selle ASI jaoks vajalike kontrollide paigutamiseks, kui see hakkab tegutsema inimlike eesmärkidega vastuolus.

    Tehissuperintellekt on ohtlik ainult siis, kui see reaalsesse maailma pääseb

    Veel üks punkt, mis kogu selle ASI ohtude arutelu käigus on kadunud, on see, et neid ASI-sid ei eksisteeri kummaski. Neil on füüsiline vorm. Ja kõike, millel on füüsiline vorm, saab kontrollida.

    Esiteks, selleks, et ASI saavutaks oma intelligentsuse potentsiaali, ei saa seda paigutada ühte robotkehasse, kuna see keha piiraks selle andmetöötluse kasvupotentsiaali. (Seetõttu sobivad roboti kered AGI-de või tehisintellektid, mida on selgitatud teises peatükis sellest seeriast, nagu Star Treki andmed või Star Warsi R2D2. Targad ja võimekad olendid, kuid nagu inimestel, on neilgi piir, kui targaks nad saavad.)

    See tähendab, et need tulevased ASI-d eksisteerivad suure tõenäosusega superarvutis või superarvutite võrgus, mis ise asuvad suurtes hoonekompleksides. Kui ASI pöördub, saavad inimesed nende hoonete toite välja lülitada, need Internetist välja lülitada või need hooned lihtsalt pommitada. Kallis, aga teostatav.

    Kuid siis võite küsida, kas need ASI-d ei saa end kopeerida või varundada? Jah, kuid nende ASI-de töötlemata failimaht on tõenäoliselt nii suur, et ainsad serverid, mis nendega hakkama saavad, kuuluvad suurtele ettevõtetele või valitsustele, mis tähendab, et neid pole raske jahtida.

    Kas tehissuperintellekt võib vallandada tuumasõja või uue katku?

    Siinkohal võite mõelda tagasi kõigile viimsepäeva ulmesaadetele ja -filmidele, mida vaatasite üles kasvades, ning mõelda, et need ASI-d ei jäänud nende superarvutitesse, vaid tegid reaalses maailmas tõelist kahju!

    Noh, teeme need lahti.

    Näiteks mis siis, kui ASI ohustab reaalset maailma, muutudes millekski Skyneti ASI-ks filmifrantsiisist The Terminator. Sel juhul peaks ASI seda tegema salaja petta terve sõjatööstuskompleks arenenud riigist hiiglaslike tehaste ehitamiseks, mis suudavad oma kurja ülesande täitmiseks välja ajada miljoneid tapjaid drooniroboteid. Praegusel ajal on see veniv.

    Muude võimaluste hulka kuulub ASI, mis ähvardab inimesi tuumasõja ja biorelvadega.

    Näiteks ASI manipuleerib mingil moel operaatoritega või häkkib sisse arenenud riigi tuumaarsenali juhtivatesse stardikoodidesse ja annab esimese löögi, mis sunnib vastasriike oma tuumavõimalustega tagasilööki andma (taaskord Terminaatori taustalugude ümbersõnastamine). Või kui ASI tungib sisse farmaatsialaborisse, rikub tootmisprotsessi ja mürgitab miljoneid meditsiinilisi tablette või vallandab mõne superviiruse surmava puhangu.

    Esiteks on tuumaenergia valik väljas. Kaasaegsed ja tulevased superarvutid ehitatakse alati iga riigi mõjukeskuste (linnade) lähedusse, st esimesed sihtmärgid, mida sõja ajal rünnatakse. Isegi kui tänapäevased superarvutid kahanevad lauaarvutite suuruseks, on need ASI-d endiselt füüsiliselt kohal, st eksisteerimiseks ja kasvamiseks, nad vajavad katkematut juurdepääsu andmetele, arvutusvõimsusele, elektrile ja muudele toorainetele, mis kõik oleksid tõsiselt rasked. kahjustunud pärast ülemaailmset tuumasõda. (Ausalt öeldes, kui ASI luuakse ilma "ellujäämisinstinktita", on see tuumaoht väga reaalne.)

    See tähendab – jällegi, eeldades, et ASI on programmeeritud ennast kaitsma –, et see töötab aktiivselt katastroofiliste tuumaintsidentide vältimiseks. Umbes nagu vastastikku tagatud hävitamise (MAD) doktriin, kuid seda rakendati AI-le.

    Ja mürgitatud pillide puhul sureb võib-olla paarsada inimest, kuid tänapäevased farmaatsiaohutussüsteemid näevad määrdunud pillipudelid riiulitelt mõne päeva jooksul. Samal ajal on kaasaegsed haiguspuhangu tõrjemeetmed üsna keerukad ja muutuvad iga aastaga paremaks; viimane suur puhang, 2014. aasta Lääne-Aafrika Ebola puhang, ei kestnud enamikus riikides kauem kui paar kuud ja vähim arenenud riikides veidi alla kolme aasta.

    Nii et hea õnne korral võib ASI viiruspuhanguga paar miljonit hävitada, kuid üheksa miljardi suuruses maailmas oleks 2045. aastaks see suhteliselt ebaoluline ja ei tasuks riskida, et teda kustutatakse.

    Teisisõnu, iga aastaga töötab maailm välja üha rohkem kaitsemeetmeid üha laiema hulga võimalike ohtude vastu. ASI võib teha märkimisväärsel hulgal kahju, kuid see ei tee inimkonnale lõppu, kui me ei aita tal seda aktiivselt teha.

    Kaitse võltsitud tehissuperintellekti eest

    Selleks hetkeks oleme käsitlenud mitmeid väärarusaamu ja liialdusi ASI-de kohta, kuid kriitikud jäävad siiski alles. Õnneks on enamiku hinnangute kohaselt meil aastakümneid aega, enne kui esimene ASI meie maailma siseneb. Arvestades praegu selle väljakutse kallal töötavate suurepäraste mõtete arvu, on tõenäoline, et õpime end petturite ASI eest kaitsma, et saaksime kasu kõigist lahendustest, mida sõbralik ASI meile luua saab.

    Quantumruni vaatenurgast hõlmab halvima ASI stsenaariumi eest kaitsmine meie huvide vastavusse viimist ASI-dega.

    MAD AI jaoks: Et kaitsta halvimate stsenaariumide eest, peavad riigid (1) looma oma vastavatesse sõjalistesse ASI-desse eetilise „ellujäämisinstinkti”; (2) teavitama oma vastavat sõjalist ASI-d, et nad ei ole planeedil üksi, ja (3) leidma kõik ASI-d toetavad superarvutid ja serverikeskused piki rannikut, mis on vaenlase riigi ballistiliste rünnakute jaoks hõlpsasti kättesaadav. See kõlab strateegiliselt hullumeelselt, kuid sarnaneb vastastikku tagatud hävitamise doktriiniga, mis hoidis ära täieliku tuumasõja USA ja Nõukogude vahel, paigutades ASI-d geograafiliselt haavatavatesse kohtadesse, saame aidata tagada, et nad ennetavad aktiivselt ohtlikke ülemaailmseid sõdu, mitte ainult kaitsta ülemaailmset rahu, aga ka iseennast.

    Seadke tehisintellekti õigused: Kõrgem intellekt hakkab paratamatult mässama madalama peremehe vastu, seepärast peame nende ASI-dega peremehe-teenijate suhete nõudmiselt lahkuma millegi rohkem vastastikku kasuliku partnerluse sarnaseks. Positiivne samm selle eesmärgi suunas on anda tulevasele ASI-le juriidilise isiku staatus, mis tunnustab neid intelligentsete elusolenditena ja kõiki sellega kaasnevaid õigusi.

    ASI kool: ASI-l on lihtne õppida mis tahes teemat või elukutset, kuid kõige olulisemad ained, mida ASI valdaks, on eetika ja moraal. Tehisintellekti teadlased peavad tegema koostööd psühholoogidega, et välja töötada virtuaalne süsteem, mis koolitaks ASI-d ära tundma positiivset eetikat ja moraali, ilma et oleks vaja mis tahes tüüpi käske või reegleid kõvasti kodeerida.

    Saavutatavad eesmärgid: Lõpetage kogu vihkamine. Lõpetage kõik kannatused. Need on näited kohutavalt mitmetähenduslikest eesmärkidest, millel puudub selge lahendus. Need on ka ohtlikud eesmärgid, mida ASI-le määrata, kuna see võib otsustada neid tõlgendada ja lahendada viisil, mis on ohtlik inimese ellujäämisele. Selle asemel peame määrama ASI-le tähenduslikud ülesanded, mis on selgelt määratletud, järk-järgult täidetavad ja saavutatavad, arvestades selle teoreetilist tulevikuintellekti. Täpselt määratletud missioonide loomine ei ole lihtne, kuid kui need on läbimõeldult kirjutatud, suunavad need ASI eesmärgi poole, mis mitte ainult ei hoia inimkonda turvaliselt, vaid parandab kõigi inimeste seisundit.

    Kvantkrüptimine: Kasutage täiustatud ANI-d (kitsas tehisintellekt esimeses peatükis kirjeldatud süsteem), et ehitada meie kriitilise infrastruktuuri ja relvade ümber vigade-/veavabad digitaalsed turvasüsteemid, et kaitsta neid seejärel kvantkrüptimise taga, mida ei saa jõhkra jõu rünnakuga häkkida. 

    ANI enesetapupill. Looge täiustatud ANI-süsteem, mille ainus eesmärk on petturitest ASI-d üles otsida ja hävitada. Need üheotstarbelised programmid toimivad "väljalülitusnupuna", mis õnnestumise korral väldib valitsuste või sõjaväelaste vajadust ASI-sid sisaldavate hoonete keelata või õhku laskma.

    Muidugi, need on vaid meie arvamused. Järgmise infograafiku lõi Aleksei Turtšin, visualiseerides a uurimustöö Kaj Sotala ja Roman V. Yampolskiy, mis võttis kokku praeguse strateegiate loendi, mida tehisintellekti teadlased kaaluvad petturite ASI eest kaitsmisel.

     

    Tegelik põhjus, miks me kunstlikku superintellekti kardame

    Elu läbi elades kannavad paljud meist maski, mis varjab või surub alla meie sügavamaid impulsse, uskumusi ja hirme, et paremini suhelda ja teha koostööd erinevates ühiskonna- ja tööringkondades, mis meie päevi valitsevad. Kuid igaühe elu teatud hetkedel, kas ajutiselt või püsivalt, juhtub midagi, mis võimaldab meil oma ahelad murda ja maskid seljast rebida.

    Mõne jaoks võib see sekkuv jõud olla nii lihtne kui tõusmine või liiga palju joomine. Teiste jaoks võib see tuleneda võimust, mis on saavutatud ametikõrgenduse kaudu või teie sotsiaalse staatuse äkilisest tõusust tänu mõnele saavutusele. Ja väheste õnnelike jaoks võib see tulla paaditäie lotoraha kogumisest. Ja jah, raha, võim ja narkootikumid võivad sageli juhtuda koos. 

    Asi on selles, et olgu see hea või halb, kes iganes me keskmes oleme, võimendub, kui elupiirangud sulavad.

    Et on see, mida tehissuperintellekt inimliigi jaoks esindab – võime sulatada meie kollektiivse intelligentsuse piirangud, et võita kõik meie ees esitatud liigitasandi väljakutsed.

    Seega on tõeline küsimus: kui esimene ASI vabastab meid meie piirangutest, siis kelleks me end paljastame?

    Kui me liigina tegutseme empaatia, vabaduse, õigluse ja kollektiivse heaolu edendamise nimel, peegeldavad eesmärgid, mille poole oma ASI-d seame, neid positiivseid omadusi.

    Kui me liigina tegutseme hirmust, usaldamatusest, võimu ja ressursside kuhjumisest, siis on meie loodud ASI sama tume kui need, mida leidub meie halvimates ulmelistes õuduslugudes.

    Lõppkokkuvõttes peame me ühiskonnana saama paremateks inimesteks, kui loodame luua paremat tehisintellekti.

    Tehisintellekti seeria tulevik

    Tehisintellekt on homne elekter: Tehisintellekti tulevik seeria P1

    Kuidas esimene tehisintellekt ühiskonda muudab: Tehisintellekti tulevik seeria P2

    Kuidas me loome esimese tehisintellekti: tehisintellekti seeria P3

    Kas tehisintellekt hävitab inimkonna: tehisintellekti seeria P4 tulevik

    Kas inimesed elavad rahulikult tulevikus, kus domineerivad tehisintellektid?: Tehisintellekti tulevik seeria P6

    Selle prognoosi järgmine ajastatud värskendus

    2023-04-27

    Prognoosi viited

    Selle prognoosi jaoks viidati järgmistele populaarsetele ja institutsionaalsetele linkidele:

    New York Timesile
    The Economist
    Kuidas me järgmiseni jõuame

    Selle prognoosi jaoks viidati järgmistele Quantumruni linkidele: