Vyhladí umelá superinteligencia ľudstvo? Budúcnosť umelej inteligencie P4

OBRÁZOK PRE OBRÁZOK: Quantumrun

Vyhladí umelá superinteligencia ľudstvo? Budúcnosť umelej inteligencie P4

    Existujú určité vynálezy, do ktorých idú všetky národy. Sú to vynálezy, kde všetko závisí od toho, že je človek prvý, a čokoľvek menšie by mohlo znamenať strategickú a smrteľnú hrozbu pre prežitie národa.

    Tieto vynálezy definujúce históriu sa nevyskytujú často, ale keď sa tak stane, svet sa zastaví a predvídateľná budúcnosť sa zahmlí.

    Posledný takýto vynález sa objavil počas najhoršej druhej svetovej vojny. Zatiaľ čo v starom svete sa nacisti presadzovali na všetkých frontoch, v novom svete, konkrétne v tajnej armádnej základni mimo Los Alamos, spojenci tvrdo pracovali na zbrani, ktorá by skoncovala so všetkými zbraňami.

    Projekt bol spočiatku malý, ale potom sa rozrástol a zamestnával 130,000 23 ľudí z USA, Veľkej Británie a Kanady, vrátane mnohých vtedajších najväčších svetových mysliteľov. S kódovým názvom Manhattan Project a s neobmedzeným rozpočtom – zhruba 2018 miliárd dolárov v dolároch na rok XNUMX – sa tejto armáde ľudskej vynaliezavosti nakoniec podarilo vytvoriť prvú jadrovú bombu. Krátko nato sa druhá svetová vojna skončila dvoma atómovými treskmi.

    Tieto jadrové zbrane predznamenali atómový vek, zaviedli úplne nový zdroj energie a dali ľudstvu schopnosť vyhladiť sa v priebehu niekoľkých minút – čomu sme sa vyhýbali napriek studenej vojne.

    Vytvorenie umelej superinteligencie (ASI) je ďalším vynálezom definujúcim históriu, ktorého sila (pozitívna aj deštruktívna) ďaleko prevyšuje jadrovú bombu.

    V poslednej kapitole série Future of Artificial Intelligence sme skúmali, čo je ASI a ako ho výskumníci plánujú jedného dňa vybudovať. V tejto kapitole sa pozrieme na to, aké organizácie vedú výskum umelej inteligencie (AI), čo bude chcieť ASI, keď nadobudne vedomie podobné ľudskému, a ako by to mohlo ohroziť ľudstvo, ak by sa s ním zle zaobchádzalo alebo keby sa dostal pod vplyv nie veľmi pekné režimy.

    Kto pracuje na vybudovaní umelej superinteligencie?

    Vzhľadom na to, aké významné bude vytvorenie ASI pre ľudskú históriu a akú veľkú výhodu poskytne svojmu tvorcovi, nemalo by byť prekvapením, že na tomto projekte nepriamo pracuje mnoho skupín.

    (Nepriamo máme na mysli prácu na výskume AI, ktorý nakoniec vytvorí prvý umelá všeobecná inteligencia (AGI), to čoskoro povedie k prvému ASI.)

    Na začiatok, pokiaľ ide o titulky, jasnými lídrami v pokročilom výskume AI sú špičkové technologické firmy v USA a Číne. Na fronte USA to zahŕňa spoločnosti ako Google, IBM a Microsoft av Číne to zahŕňa spoločnosti ako Tencent, Baidu a Alibaba. Ale keďže výskum AI je relatívne lacný v porovnaní s vývojom niečoho fyzického, napríklad lepšieho jadrového reaktora, je to tiež oblasť, v ktorej môžu súťažiť aj menšie organizácie, ako sú univerzity, startupy a ... tieňové organizácie (použite predstavy o zloduchoch z Bonda tento jeden).

    Ale v zákulisí skutočný tlak na výskum AI prichádza od vlád a ich armád. Ekonomická a vojenská cena byť prvým, kto vytvoril ASI, je príliš veľká (naznačená nižšie), aby sme riskovali zaostávanie. A nebezpečenstvo byť posledný je neprijateľné, aspoň pre niektoré režimy.

    Vzhľadom na tieto faktory, relatívne nízke náklady na výskum AI, nekonečné komerčné aplikácie pokročilej AI a ekonomickú a vojenskú výhodu byť prvým, kto vytvoril ASI, mnohí výskumníci AI veria, že vytvorenie ASI je nevyhnutné.

    Kedy vytvoríme umelú superinteligenciu

    V našej kapitole o AGI sme spomenuli, ako prieskum medzi špičkovými výskumníkmi AI veril, že prvé AGI vytvoríme optimisticky do roku 2022, realisticky do roku 2040 a pesimisticky do roku 2075.

    A v našom posledná kapitola, sme načrtli, že vytvorenie ASI je vo všeobecnosti výsledkom inštrukcií AGI, aby sa donekonečna zlepšovalo, a poskytnutia zdrojov a slobody na to.

    Z tohto dôvodu, zatiaľ čo vynájdenie AGI môže trvať až niekoľko desaťročí, vytvorenie ASI môže trvať len niekoľko rokov.

    Tento bod je podobný konceptu „výpočtového previsu“, ktorý je navrhnutý v papier, ktorý napísali poprední myslitelia AI Luke Muehlhauser a Nick Bostrom. V zásade, ak by vytvorenie AGI naďalej zaostávalo za súčasným pokrokom vo výpočtovej kapacite založenej na Mooreovom zákone, potom v čase, keď výskumníci vymyslia AGI, bude k dispozícii toľko lacného výpočtového výkonu, že AGI bude mať kapacitu. musí rýchlo poskočiť na úroveň ASI.

    Inými slovami, keď si konečne prečítate titulky oznamujúce, že nejaká technologická spoločnosť vynašla prvé skutočné AGI, očakávajte oznámenie prvého ASI onedlho potom.

    Vo vnútri mysle umelej superinteligencie?

    Dobre, takže sme zistili, že veľa veľkých hráčov s hlbokými vreckami skúma AI. A potom, čo bude vynájdené prvé AGI, uvidíme, ako svetové vlády (armády) čoskoro nato budú zelenať v úsilí smerom k ASI, aby ako prvé vyhrali globálne preteky v zbrojení AI (ASI).

    Ale keď bude toto ASI vytvorené, ako bude myslieť? Čo to bude chcieť?

    Priateľský pes, starostlivý slon, roztomilý robot – ako ľudia máme vo zvyku pokúšať sa o vzťah k veciam prostredníctvom ich antropologizácie, tj aplikovaním ľudských vlastností na veci a zvieratá. Preto prirodzeným prvým predpokladom ľudí, keď uvažujú o ASI, je, že akonáhle nejako získa vedomie, bude myslieť a správať sa podobne ako my.

    No nie nevyhnutne.

    Vnímanie. Po prvé, väčšina má tendenciu zabúdať, že vnímanie je relatívne. Spôsoby nášho myslenia sú formované naším prostredím, našimi skúsenosťami a najmä našou biológiou. Najprv vysvetlené v kapitola tretia nášho Budúcnosť ľudskej evolúcie séria, zvážte príklad nášho mozgu:

    Je to náš mozog, ktorý nám pomáha pochopiť svet okolo nás. A nerobí to tak, že sa vznášame nad našimi hlavami, pozeráme sa okolo seba a ovládame nás pomocou ovládača Xbox; robí to tak, že je uväznený v škatuli (našich noggins) a spracováva akúkoľvek informáciu, ktorú dostane z našich zmyslových orgánov – našich očí, nosa, uší atď.

    Ale rovnako ako hluchí alebo slepí žijú oveľa menšie životy v porovnaní so zdravými ľuďmi, kvôli obmedzeniam, ktoré ich postihnutie kladie na to, ako môžu vnímať svet, to isté možno povedať o všetkých ľuďoch kvôli obmedzeniam našich základných súbor zmyslových orgánov.

    Zvážte toto: Naše oči vnímajú menej ako desať biliónov všetkých svetelných vĺn. Nevidíme gama lúče. Nevidíme röntgenové lúče. Nevidíme ultrafialové svetlo. A nenechajte ma začať s infračerveným, mikrovlnami a rádiovými vlnami!

    Všetky srandy bokom, predstavte si, aký by bol váš život, ako by ste mohli vnímať svet, ako inak by vaša myseľ mohla fungovať, keby ste videli viac, ako vám momentálne dovoľuje maličký kúsoček svetla. Podobne si predstavte, ako by ste vnímali svet, keby sa váš čuch rovnal psovi alebo sluchu slonovi.

    Ako ľudia v podstate vidíme svet cez kukátko a to sa odráža v mysliach, ktoré sme si vyvinuli, aby sme rozumeli tomuto obmedzenému vnímaniu.

    Medzitým sa prvé ASI zrodí v superpočítači. Namiesto orgánov budú vstupy, ku ktorým bude mať prístup, obrovské súbory údajov, možno (pravdepodobne) dokonca aj prístup k samotnému internetu. Výskumníci by mu mohli poskytnúť prístup k CCTV kamerám a mikrofónom celého mesta, k senzorickým údajom z dronov a satelitov a dokonca aj k fyzickej podobe tela alebo tiel robota.

    Ako si viete predstaviť, myseľ narodená v superpočítači, s priamym prístupom na internet, k miliónom elektronických očí a uší a celej rade ďalších pokročilých senzorov bude nielen myslieť inak ako my, ale aj myseľ, ktorá dokáže dávať zmysel. zo všetkých tých zmyslových vstupov by nás museli nekonečne prevyšovať. Toto je myseľ, ktorá bude úplne cudzia našej vlastnej a akejkoľvek inej forme života na planéte.

    Ciele. Ďalšia vec, ktorú ľudia predpokladajú, je, že akonáhle ASI dosiahne určitú úroveň superinteligencie, okamžite si uvedomí túžbu prísť s vlastnými cieľmi a zámermi. Ale ani to nemusí byť nevyhnutne pravda.

    Mnoho výskumníkov AI verí, že superinteligencia ASI a jej ciele sú „ortogonálne“, to znamená, že bez ohľadu na to, ako inteligentné bude, ciele ASI zostanú rovnaké. 

    Či už je teda AI pôvodne vytvorená s cieľom navrhnúť lepšiu plienku, maximalizovať výnosy na akciovom trhu alebo stratégovať spôsoby, ako poraziť nepriateľa na bojisku, akonáhle dosiahne úroveň ASI, pôvodný cieľ sa nezmení; čo sa zmení, je efektívnosť ASI dosiahnuť tieto ciele.

    Ale tu je nebezpečenstvo. Ak sa ASI optimalizuje na konkrétny cieľ, potom by sme si mali byť sakra istí, že sa optimalizuje na cieľ, ktorý je v súlade s cieľmi ľudstva. V opačnom prípade môžu byť výsledky smrteľné.

    Predstavuje umelá superinteligencia existenčné riziko pre ľudstvo?

    Čo ak sa teda ASI pustí do sveta? Ak sa optimalizuje na ovládnutie akciového trhu alebo zabezpečenie americkej vojenskej nadvlády, neudrží sa ASI v rámci týchto špecifických cieľov?

    Možno.

    Doteraz sme diskutovali o tom, ako bude ASI posadnutý cieľom (cieľmi), ktorý mu bol pôvodne pridelený, a neľudsky kompetentným pri dosahovaní týchto cieľov. Háčik je v tom, že racionálny agent bude presadzovať svoje ciele čo najefektívnejším možným spôsobom, pokiaľ nedostane dôvod, aby tak neurobil.

    Napríklad racionálny agent príde s radom čiastkových cieľov (tj ciele, inštrumentálne ciele, odrazové mostíky), ktoré mu pomôžu na ceste k dosiahnutiu jeho konečného cieľa. Pre ľudí je naším kľúčovým podvedomým cieľom reprodukcia, odovzdávanie vašich génov (teda nepriama nesmrteľnosť). Čiastkové ciele na tento účel môžu často zahŕňať:

    • Prežiť prístupom k jedlu a vode, vyrásť a zosilniť, naučiť sa brániť alebo investovať do rôznych foriem ochrany atď. 
    • Prilákanie partnera, cvičením, rozvíjaním pútavej osobnosti, štýlovým obliekaním atď.
    • Dovoliť si potomstvo, získať vzdelanie, získať vysoko platenú prácu, kúpiť si ozdoby života strednej triedy atď.

    Pre veľkú väčšinu z nás budeme otrocky prechádzať cez všetky tieto čiastkové ciele a mnohé ďalšie s nádejou, že nakoniec dosiahneme tento konečný cieľ reprodukcie.

    Ale ak by bol ohrozený tento konečný cieľ alebo dokonca ktorýkoľvek z dôležitejších čiastkových cieľov, mnohí z nás by podnikli obranné kroky mimo svojich zón morálneho pohodlia – čo zahŕňa podvádzanie, krádež alebo dokonca zabíjanie.

    Rovnako aj v živočíšnej ríši, mimo hraníc ľudskej morálky, by mnohé zvieratá nerozmýšľali nad zabíjaním čohokoľvek, čo ohrozovalo ich alebo ich potomstvo.

    Budúca ASI nebude iná.

    Ale namiesto potomstva sa ASI zameria na pôvodný cieľ, pre ktorý bol vytvorený, a pri sledovaní tohto cieľa, ak nájde konkrétnu skupinu ľudí, alebo dokonca celé ľudstvo, je prekážkou pri dosahovaní svojich cieľov. , potom ... to urobí racionálne rozhodnutie.

    (Tu môžete zapojiť akýkoľvek scenár súdneho dňa súvisiaci s AI, o ktorom ste čítali vo svojej obľúbenej sci-fi knihe alebo filme.)

    Toto je najhorší možný scenár, ktorého sa výskumníci AI skutočne obávajú. ASI nebude konať z nenávisti alebo zla, len z ľahostajnosti, rovnako ako to, ako si stavebná čata nerozmyslí dvakrát buldozérom zbúrať mravenisko v procese výstavby novej bytovej veže.

    Poznámka. V tomto bode by sa niektorí z vás mohli čudovať: „Nemôžu výskumníci AI upraviť hlavné ciele ASI po tom, čo zistíme, že to funguje?“

    Nie naozaj.

    Akonáhle ASI dospeje, každý pokus o úpravu pôvodného cieľa (cielov) môže byť považovaný za hrozbu, ktorá by si vyžadovala extrémne opatrenia na obranu. Ak použijeme celý príklad ľudskej reprodukcie z predchádzajúceho obdobia, je to takmer ako keby sa zlodej vyhrážal, že ukradne dieťa z lona nastávajúcej matky – môžete si byť sakra istý, že matka podnikne extrémne opatrenia na ochranu svojho dieťaťa.

    Opäť tu nehovoríme o kalkulačke, ale o „živej“ bytosti, ktorá sa jedného dňa stane oveľa múdrejšou ako všetci ľudia na planéte dohromady.

    Neznámy

    Za bájkou o Pandorina skrinka je menej známa pravda, na ktorú ľudia často zabúdajú: otvorenie krabice je nevyhnutné, ak nie vy, tak niekto iný. Zakázané vedomosti sú príliš lákavé na to, aby zostali navždy zamknuté.

    To je dôvod, prečo je snaha o dosiahnutie globálnej dohody na zastavenie všetkého výskumu AI, ktorý by mohol viesť k ASI, zbytočná – na tejto technológii pracuje príliš veľa organizácií oficiálne aj v tieni.

    V konečnom dôsledku nemáme ani poňatia, čo bude táto nová entita, toto ASI znamenať pre spoločnosť, technológiu, politiku, mier a vojnu. My ľudia sa chystáme vynájsť oheň odznova a kam nás toto stvorenie zavedie, je úplne neznáme.

    Keď sa vrátime k prvej kapitole tejto série, jedna vec, ktorú vieme s istotou, je, že inteligencia je sila. Inteligencia je kontrola. Ľudia môžu náhodne navštíviť najnebezpečnejšie zvieratá na svete vo svojich miestnych zoologických záhradách nie preto, že by sme boli fyzicky silnejší ako tieto zvieratá, ale preto, že sme výrazne múdrejší.

    Vzhľadom na potenciálne stávky, že ASI využíva svoj nesmierny intelekt na podniknutie krokov, ktoré môžu priamo alebo neúmyselne ohroziť prežitie ľudskej rasy, musíme sa aspoň pokúsiť navrhnúť bezpečnostné opatrenia, ktoré umožnia ľuďom zostať v priestore vodiča. sedadlo —toto je témou ďalšej kapitoly.

    Séria Future of Artificial Intelligence

    P1: Umelá inteligencia je elektrina zajtrajška

    P2: Ako prvá umelá všeobecná inteligencia zmení spoločnosť

    P3: Ako vytvoríme prvú umelú superinteligenciu

    P5: Ako sa ľudia budú brániť proti umelej superinteligencii

    P6: Budú ľudia žiť pokojne v budúcnosti ovládanej umelými inteligenciami?

    Ďalšia plánovaná aktualizácia tejto prognózy

    2025-09-25

    Referencie predpovede

    Pre túto prognózu sa odkazovalo na nasledujúce populárne a inštitucionálne odkazy:

    The Economist
    Ako sa dostaneme ďalej

    Pre túto predpoveď sa odkazovalo na nasledujúce odkazy Quantumrun: