Kas tehislik superintellekt hävitab inimkonna? Tehisintellekti tulevik P4

PILDIKrediit: Quantumrun

Kas tehislik superintellekt hävitab inimkonna? Tehisintellekti tulevik P4

    On teatud leiutisi, mida rahvad kasutavad. Need on leiutised, kus kõik sõltub sellest, et olla esimene, ja kõik vähem võib tähendada strateegilist ja surmavat ohtu rahva ellujäämisele.

    Neid ajalugu määravaid leiutisi ei tule sageli ette, kuid kui nad juhtuvad, siis maailm peatub ja ennustatav tulevik muutub uduseks.

    Viimane selline leiutis ilmus Teise maailmasõja halvima ajal. Sel ajal, kui natsid saavutasid vanas maailmas, uues maailmas, eriti Los Alamost väljaspool asuvas salajas armeebaasis, jõudu kõigil rinnetel, töötasid liitlased kõvasti relva kallal, et lõpetada kõik relvad.

    Projekt oli alguses väike, kuid seejärel kasvas see, et anda tööd 130,000 23 inimesele USA-st, Ühendkuningriigist ja Kanadast, sealhulgas paljudest tolleaegsetest maailma suurimatest mõtlejatest. Koodnimega Manhattani projekt ja piiramatu eelarvega – ligikaudu 2018 miljardit dollarit XNUMX. aasta dollarites – õnnestus sellel inimliku leidlikkuse armeel lõpuks luua esimene tuumapomm. Vahetult pärast seda lõppes II maailmasõda kahe aatomipauguga.

    Need tuumarelvad juhatasid sisse aatomiajastu, tõid sisse täiesti uue energiaallika ja andsid inimkonnale võimaluse end minutitega hävitada – mida me külmast sõjast hoolimata vältisime.

    Tehissuperintellekti (ASI) loomine on järjekordne ajalugu määratlev leiutis, mille võimsus (nii positiivne kui ka hävitav) ületab kaugelt tuumapommi.

    Sarja Future of Artificial Intelligence viimases peatükis uurisime, mis on ASI ja kuidas teadlased kavatsevad seda ühel päeval ehitada. Selles peatükis vaatleme, millised organisatsioonid juhivad tehisintellekti (AI) uuringuid, mida ASI soovib, kui ta omandab inimesesarnase teadvuse, ja kuidas see võib inimkonda ohustada, kui seda valesti juhitakse või kui inimene satub inimkonna mõju alla. mitte nii toredad režiimid.

    Kes töötab tehissuperintellekti loomise nimel?

    Arvestades, kui oluline on ASI loomine inimkonna ajaloole ja kui suure eelise see selle loojale annab, ei tohiks olla üllatav kuulda, et paljud rühmad töötavad selle projektiga kaudselt.

    (Kaudse all peame silmas töötamist AI-uuringute kallal, mis lõpuks loob esimese tehislik üldintellekt (AGI), mis viib varsti pärast seda esimese ASI-ni.)

    Alustuseks, kui rääkida pealkirjadest, siis täiustatud tehisintellektiuuringute selged liidrid on USA ja Hiina tipptehnoloogiaettevõtted. USA rindel hõlmab see selliseid ettevõtteid nagu Google, IBM ja Microsoft ning Hiinas selliseid ettevõtteid nagu Tencent, Baidu ja Alibaba. Kuid kuna tehisintellekti uurimine on suhteliselt odav võrreldes millegi füüsilise, näiteks parema tuumareaktori väljatöötamisega, on see valdkond, kus saavad konkureerida ka väiksemad organisatsioonid, nagu ülikoolid, idufirmad ja … varjuorganisatsioonid (kasutage oma Bondi kaabaka kujutlusvõimet see).

    Kuid kulisside taga on AI-uuringute tegelik tõuge valitsused ja nende sõjaväelased. ASI esimesena loomise majanduslik ja sõjaline auhind on lihtsalt liiga suur (allpool kirjeldatud), et riskida mahajäämisega. Ja viimaseks jäämise oht on vastuvõetamatu, vähemalt teatud režiimidele.

    Arvestades neid tegureid, tehisintellekti uurimise suhteliselt madalaid kulusid, täiustatud tehisintellekti lõputuid kaubanduslikke rakendusi ning ASI esimesena loomise majanduslikku ja sõjalist eelist, usuvad paljud tehisintellekti teadlased, et ASI loomine on vältimatu.

    Millal loome tehissuperintellekti

    Oma peatükis AGI-de kohta mainisime, kuidas tipp-AI-teadlaste seas läbi viidud küsitlus uskus, et loome esimese AGI optimistlikult 2022. aastaks, realistlikult 2040. aastaks ja pessimistlikult 2075. aastaks.

    Ja meie viimane peatükk, kirjeldasime, kuidas ASI loomine on üldiselt selle tulemuseks, et AGI-l antakse korraldus end lõputult täiustada ning antakse talle selleks ressursid ja vabadus.

    Sel põhjusel, kuigi AGI leiutamiseks võib kuluda kuni paar aastakümmet, võib ASI loomiseks kuluda vaid käputäis aastaid.

    See punkt sarnaneb artiklis soovitatud "arvutite üleulatuse" kontseptsiooniga paber, mille autoriteks on juhtivad AI-mõtlejad Luke Muehlhauser ja Nick Bostrom. Põhimõtteliselt, kui AGI loomine jääb Moore'i seadusele tugineva arvutusvõimsuse praegusest arengust maha, on selleks ajaks, kui teadlased AGI leiutavad, saadaval nii palju odavat arvutusvõimsust, et AGI-l on piisavalt võimsust. see peab kiiresti hüppama ASI tasemele.

    Teisisõnu, kui loete lõpuks pealkirju, mis teatasid, et mõni tehnoloogiaettevõte leiutas esimese tõelise AGI, siis oodake esimese ASI väljakuulutamist varsti pärast seda.

    Tehisliku superintellekti mõistuse sees?

    Olgu, nii et oleme kindlaks teinud, et paljud suured mängijad, kellel on suured taskud, uurivad tehisintellekti. Ja siis pärast esimese AGI leiutamist näeme, et maailma valitsused (sõjaväelased) hakkavad varsti pärast seda ASI poole pöörduma, et olla esimene, kes võidab ülemaailmse AI (ASI) võidurelvastumise.

    Aga kui see ASI on loodud, kuidas see siis mõtleb? Mida see tahab?

    Sõbralik koer, hooliv elevant, armas robot – inimestena on meil kombeks püüda asjadega suhestuda nende antropologiseerimise kaudu ehk rakendada asjadele ja loomadele inimlikke omadusi. Sellepärast on inimestel ASI-le mõeldes esimene loomulik eeldus, et kui see mingil moel teadvusele saab, hakkab ta mõtlema ja käituma sarnaselt meiega.

    No mitte tingimata.

    Taju. Esiteks kipub enamik unustama, et taju on suhteline. Meie mõtteviisid on kujundatud meie keskkonnast, meie kogemustest ja eriti meie bioloogiast. Esmalt selgitati sisse kolmas peatükk meie Inimese evolutsiooni tulevik seeriat, vaadake meie aju näidet:

    See on meie aju, mis aitab meil ümbritsevat maailma mõista. Ja see ei tee seda meie pea kohal hõljudes, ringi vaadates ja meid Xboxi kontrolleriga kontrollides; see teeb seda nii, et ta jääb kasti (meie noogikutesse) lõksu ja töötleb mis tahes teavet, mida see meie meeleorganitelt – meie silmadelt, ninalt, kõrvadelt jne – annab.

    Kuid nii nagu kurdid või pimedad elavad palju väiksemat elu võrreldes töövõimeliste inimestega, seab nende puue maailma tajumise piirangute tõttu, nii võib meie põhiliste piirangute tõttu öelda sama kõigi inimeste kohta. meeleelundite komplekt.

    Mõelge sellele: meie silmad tajuvad vähem kui kümne triljondiku kõigist valguslainetest. Me ei näe gammakiirgust. Me ei näe röntgenikiirgust. Me ei näe ultraviolettvalgust. Ja ärge pange mind alustama infrapuna, mikrolainete ja raadiolainetega!

    Kui nalja kõrvale jätta, kujutage ette, milline oleks teie elu, kuidas te võiksite maailma tajuda, kui erinevalt võiks teie mõistus töötada, kui näete rohkem, kui teie silmad praegu lubavad. Samuti kujutage ette, kuidas te maailma tajuksite, kui teie haistmismeel oleks võrdne koera omaga või kui teie kuulmismeel oleks võrdne elevandi omaga.

    Inimestena näeme maailma sisuliselt läbi pilguaugu ja see peegeldub meie mõtetes, mille oleme selle piiratud taju mõtestamiseks arenenud.

    Vahepeal sünnib esimene ASI superarvuti sees. Organite asemel hõlmavad sisendid, millele ta juurde pääseb, hiiglaslikke andmekogumeid, võib-olla (tõenäoliselt) isegi juurdepääsu Internetile. Teadlased võiksid anda sellele juurdepääsu terve linna CCTV kaameratele ja mikrofonidele, droonide ja satelliitide sensoorsetele andmetele ning isegi robotkeha või kehade füüsilisele kujule.

    Nagu võite ette kujutada, ei mõtle superarvutis sündinud mõistus, millel on otsene juurdepääs Internetile, miljonitele elektroonilistele silmadele ja kõrvadele ning paljudele muudele arenenud anduritele, mitte ainult teistmoodi kui meie, vaid ka mõistus, millel on mõtet. kõigist nendest sensoorsetest sisenditest peaks olema ka meist lõpmatult parem. See on mõistus, mis on meie omadele ja kõigile teistele planeedi eluvormidele täiesti võõras.

    Eesmärgid. Teine asi, mida inimesed eeldavad, on see, et kui ASI jõuab mingile superintellekti tasemele, mõistab see kohe soovi oma eesmärgid ja eesmärgid välja pakkuda. Kuid ka see pole tingimata tõsi.

    Paljud tehisintellekti teadlased usuvad, et ASI superintellekt ja selle eesmärgid on „ortogonaalsed”, st olenemata sellest, kui targaks see muutub, jäävad ASI eesmärgid samaks. 

    Nii et olenemata sellest, kas tehisintellekt on algselt loodud parema mähkme kujundamiseks, aktsiaturul saadava tulu maksimeerimiseks või strateegiate väljatöötamiseks, kuidas vaenlane lahinguväljal lüüa, ei muutu algne eesmärk pärast ASI taseme saavutamist. muutub ASI tõhusus nende eesmärkide saavutamiseks.

    Kuid siin peitub oht. Kui ASI optimeerib end konkreetse eesmärgi saavutamiseks, siis on parem olla kuradima kindel, et see optimeerib eesmärgi, mis on kooskõlas inimkonna eesmärkidega. Vastasel juhul võivad tulemused olla surmavad.

    Kas tehissuperintellekt kujutab inimkonnale eksistentsiaalset ohtu?

    Mis siis, kui ASI lastakse maailmas lahti? Kui see optimeerib aktsiaturu domineerimiseks või USA sõjalise ülemvõimu tagamiseks, siis kas ASI ei suuda end nende konkreetsete eesmärkide raames ise hoida?

    Võimalik.

    Siiani oleme arutanud, kuidas ASI on kinnisideeks algselt määratud eesmärkidest ja ebainimlikult pädev nende eesmärkide poole püüdlemisel. Konks on selles, et ratsionaalne agent püüab oma eesmärke saavutada võimalikult tõhusate vahenditega, kui tal pole põhjust mitte teha.

    Näiteks esitab ratsionaalne agent rea alaeesmärke (st eesmärgid, instrumentaalsed eesmärgid, sammud), mis aitavad tal oma lõppeesmärki saavutada. Inimeste jaoks on meie peamine alateadlik eesmärk paljunemine, teie geenide edasiandmine (st kaudne surematus). Selle eesmärgi alaeesmärgid võivad sageli hõlmata järgmist:

    • Elada, hankides juurdepääsu toidule ja veele, kasvades suureks ja tugevaks, õppides end kaitsma või investeerides erinevatesse kaitsevormidesse jne. 
    • Kaaslase meelitamine, trenni tehes, kaasahaarava isiksuse kujundamine, stiilselt riietumine jne.
    • Järglaste pakkumine, hariduse omandamine, kõrgepalgaline töökoht, keskklassi elujääkide ostmine jne.

    Valdav enamus meist orjame ära kõik need alaeesmärgid ja paljud teised, lootuses, et lõpuks saavutame selle lõppeesmärgi – paljunemise.

    Kuid kui see lõppeesmärk või isegi mõni olulisem alaeesmärk oleks ohus, võtaksid paljud meist kaitsemeetmeid väljaspool oma moraalset mugavustsooni – see hõlmab petmist, varastamist või isegi tapmist.

    Samuti ei mõtleks paljud loomad loomariigis, väljaspool inimmoraali piire, kaks korda selle peale, et tappa midagi, mis ähvardab neid ennast või nende järglasi.

    Tulevane ASI ei erine.

    Kuid järglaste asemel keskendub ASI algsele eesmärgile, milleks ta loodi, ja selle eesmärgi poole püüdlemisel on teatud inimrühma või isegi kogu inimkonna leidmine takistuseks oma eesmärkide poole püüdlemisel. , siis ... see teeb ratsionaalse otsuse.

    (Siin saate ühendada mis tahes tehisintellektiga seotud viimsepäeva stsenaariumi, millest olete oma lemmikulmeraamatust või -filmist lugenud.)

    See on halvim stsenaarium, mille pärast tehisintellekti teadlased tõesti mures on. ASI ei tegutse vihkamisest ega kurjusest, vaid ükskõiksusest, samamoodi nagu ehitusmeeskond ei mõtle uue korteritorni ehitamise käigus sipelgamäe buldooseriga mahatõmbamisele.

    Ääremärkus. Siinkohal võivad mõned teist küsida: "Kas tehisintellekti teadlased ei saaks pärast seda ASI põhieesmärke redigeerida, kui leiame, et see toimib?"

    Mitte päris.

    Kui ASI on küpseks saanud, võidakse iga katset muuta selle algset eesmärki (eesmärke) pidada ohuks ja selliseks, mille eest kaitsmiseks on vaja äärmuslikke tegevusi. Kasutades kogu varasemat inimese paljunemise näidet, on see peaaegu nii, nagu varas oleks ähvardanud lapseootel ema kõhust lapse varastada – võite olla paganama kindel, et ema võtab oma lapse kaitsmiseks kasutusele äärmuslikud meetmed.

    Jällegi, me ei räägi siin kalkulaatorist, vaid "elusolendist" ja sellisest, kes saab ühel päeval palju targemaks kui kõik planeedi inimesed kokku.

    Tundmatu

    Faabula taga Pandora karp on vähem tuntud tõde, mille inimesed sageli unustavad: kasti avamine on vältimatu, kui mitte teie, kui kellegi teise poolt. Keelatud teadmised on liiga ahvatlevad, et jääda igaveseks luku taha.

    Seetõttu on mõttetu püüda saavutada ülemaailmne kokkulepe peatada igasugune tehisintellekti alane uurimine, mis võib viia ASI-ni – selle tehnoloogiaga tegeleb nii ametlikult kui ka varjus lihtsalt liiga palju organisatsioone.

    Lõppkokkuvõttes pole meil õrna aimugi, mida see uus üksus, see ASI tähendab ühiskonnale, tehnoloogiale, poliitikale, rahule ja sõjale. Meie, inimesed, hakkame tuld uuesti leiutama ja kuhu see looming meid viib, on täiesti teadmata.

    Selle sarja esimese peatüki juurde tagasi minnes teame kindlalt, et intelligentsus on jõud. Intelligentsus on kontroll. Inimesed saavad oma kohalikes loomaaedades maailma kõige ohtlikumaid loomi juhuslikult külastada mitte sellepärast, et oleme nendest loomadest füüsiliselt tugevamad, vaid seetõttu, et oleme oluliselt targemad.

    Arvestades võimalikke panuseid, kui ASI kasutab oma tohutut intellekti, et võtta meetmeid, mis võivad otseselt või tahtmatult ohustada inimrassi ellujäämist, võlgneme endale vähemalt selle, et püüame välja töötada kaitsemeetmed, mis võimaldavad inimestel jääda juhi juurde. iste -see on järgmise peatüki teema.

    Tehisintellekti seeria tulevik

    P1: Tehisintellekt on homne elekter

    P2: Kuidas esimene tehisintellekt ühiskonda muudab

    P3: Kuidas me loome esimese tehisliku superintellekti

    P5: Kuidas inimesed kaitsevad tehisliku superintellekti eest

    P6: Kas inimesed elavad rahulikult tulevikus, kus domineerivad tehisintellektid?

    Selle prognoosi järgmine ajastatud värskendus

    2025-09-25

    Prognoosi viited

    Selle prognoosi jaoks viidati järgmistele populaarsetele ja institutsionaalsetele linkidele:

    New York Timesile
    MIT Technology Review
    The Economist
    Kuidas me järgmiseni jõuame

    Selle prognoosi jaoks viidati järgmistele Quantumruni linkidele: