Ako sa budú ľudia brániť proti umelej superinteligencii: Budúcnosť umelej inteligencie P5

OBRÁZOK PRE OBRÁZOK: Quantumrun

Ako sa budú ľudia brániť proti umelej superinteligencii: Budúcnosť umelej inteligencie P5

    Píše sa rok 65,000 XNUMX pred Kristom a ako a Thylacoleo, vy a váš druh ste boli veľkí lovci starovekej Austrálie. Voľne ste sa potulovali po krajine a žili ste v rovnováhe s ostatnými predátormi a korisťou, ktorá obsadila krajinu vedľa vás. Ročné obdobia priniesli zmenu, ale vaše postavenie v ríši zvierat zostalo nespochybnené tak dlho, ako ste si vy a vaši predkovia pamätali. Potom sa jedného dňa objavili nováčikovia.

    Povráva sa, že prišli z obrovskej vodnej steny, ale tieto bytosti sa zdali pohodlnejšie žiť na súši. Tieto stvorenia ste museli vidieť na vlastné oči.

    Trvalo to pár dní, ale nakoniec si sa dostal na pobrežie. Oheň na oblohe zakladal, ideálny čas na špehovanie týchto tvorov, možno dokonca skúsiť jedného zjesť, aby ste videli, ako chutia.

    Zbadáte jedného.

    Chodilo na dvoch nohách a nemalo srsť. Vyzeralo to slabo. Nevýrazné. Sotva to stálo za strach, ktorý to medzi kráľovstvom vyvolalo.

    Začnete sa opatrne približovať, keď noc odháňa svetlo. Približuješ sa. Potom zamrznete. Ozvú sa hlasné zvuky a potom sa z lesa za ním objavia ďalšie štyri. Koľkí tam sú?

    Tvor nasleduje ostatných do stromoradia a vy ho nasledujete. A čím viac to robíte, tým čudnejšie zvuky počujete, kým nezbadáte ešte viac týchto tvorov. Sledujete ich z diaľky, keď vychádzajú z lesa na čistinku pri brehu. Je ich veľa. Čo je však dôležitejšie, všetci pokojne sedia okolo ohňa.

    Tieto požiare ste už videli. V horúcom období oheň na oblohe niekedy navštívil krajinu a spálil celé lesy. Tieto stvorenia to na druhej strane nejako ovládali. Aké stvorenia môžu mať takú silu?

    Pozeráš sa do diaľky. Cez obrovskú vodnú stenu prichádzajú ďalší.

    Urobte krok späť.

    Tieto stvorenia nie sú ako ostatné v kráľovstve. Sú niečím úplne novým.

    Rozhodnete sa odísť a varovať svojich príbuzných. Ak ich počet príliš narastie, ktovie, čo sa môže stať.

    ***

    Verí sa, že Thylacoleo vyhynul relatívne krátko po príchode ľudí, spolu s väčšinou ďalšej megafauny na austrálskom kontinente. Žiaden iný vrcholový predátor cicavcov nezaujal jeho miesto – teda pokiaľ do tejto kategórie nerátate ľudí.

    Odohrávanie tejto alegórie je stredobodom tejto kapitoly série: Premení nás budúca umelá superinteligencia (ASI) všetkých na batérie a potom nás zapojí do Matrixu, alebo ľudia vymyslia spôsob, ako sa nestať obeťou sci-fi? Zápletka AI súdneho dňa?

    Zatiaľ v našom seriáli o Budúcnosť umelej inteligencie, sme preskúmali všetky druhy AI, vrátane pozitívneho potenciálu konkrétnej formy AI, ASI: umelej bytosti, ktorej budúca inteligencia spôsobí, že v porovnaní s tým budeme vyzerať ako mravce.

    Ale kto by povedal, že taká inteligentná bytosť by prijímala príkazy od ľudí navždy. Čo budeme robiť, ak veci pôjdu na juh? Ako sa budeme brániť proti nečestnému ASI?

    V tejto kapitole presekneme falošný humbuk – prinajmenšom v súvislosti s nebezpečenstvom „úrovne vyhynutia ľudí“ – a zameriame sa na realistické možnosti sebaobrany, ktoré majú svetové vlády k dispozícii.

    Môžeme zastaviť ďalší výskum umelej superinteligencie?

    Vzhľadom na potenciálne riziká, ktoré by ASI mohla predstavovať pre ľudstvo, prvá zrejmá otázka, ktorú si treba položiť, je: Nemôžeme jednoducho zastaviť ďalší výskum AI? Alebo aspoň zakázať akýkoľvek výskum, ktorý by nás mohol dostať nebezpečne blízko k vytvoreniu ASI?

    Krátka odpoveď: Nie.

    Dlhá odpoveď: Pozrime sa na rôznych hráčov, ktorí sú tu zapojení.

    Na úrovni výskumu je dnes príliš veľa výskumníkov AI z príliš veľkého počtu startupov, spoločností a univerzít po celom svete. Ak by sa jedna spoločnosť alebo krajina rozhodla obmedziť svoje úsilie v oblasti výskumu AI, jednoducho by pokračovala inde.

    Medzitým najcennejšie spoločnosti planéty zarábajú svoje bohatstvo na používaní systémov AI vo svojich konkrétnych podnikoch. Požiadať ich, aby zastavili alebo obmedzili svoj vývoj nástrojov AI, je podobné ako požiadať ich, aby zastavili alebo obmedzili svoj budúci rast. Finančne by to ohrozilo ich dlhodobé podnikanie. Z právneho hľadiska majú korporácie zvereneckú zodpovednosť neustále budovať hodnotu pre svojich akcionárov; to znamená, že akékoľvek konanie, ktoré by obmedzilo rast tejto hodnoty, by mohlo viesť k súdnemu sporu. A ak by sa nejaký politik pokúsil obmedziť výskum AI, potom by tieto gigantické korporácie len zaplatili nevyhnutné poplatky za lobing, aby zmenili názor alebo názor svojich kolegov.

    Pokiaľ ide o boj, rovnako ako teroristi a bojovníci za slobodu na celom svete používali partizánsku taktiku na boj proti lepšie financovaným armádam, menšie štáty budú mať motiváciu používať AI ako podobnú taktickú výhodu proti väčším národom, ktoré môžu mať množstvo vojenských výhod. Podobne, pre špičkové armády, ako sú tie, ktoré patria USA, Rusku a Číne, je vybudovanie vojenského ASI na rovnakej úrovni ako mať v zadnom vrecku arzenál jadrových zbraní. Inými slovami, všetky armády budú pokračovať vo financovaní AI, len aby zostali relevantné aj v budúcnosti.

    Ako je to s vládami? Po pravde, väčšina politikov v súčasnosti (2018) je technologicky negramotná a málo rozumie tomu, čo je AI alebo jej budúci potenciál – vďaka tomu je ľahké ich manipulovať záujmami spoločností.

    A na globálnej úrovni zvážte, aké ťažké bolo presvedčiť svetové vlády, aby podpísali rok 2015 Dohoda Paris na boj proti klimatickým zmenám – a keď boli podpísané, mnohé záväzky už ani neboli záväzné. Nielen to, zmena klímy je problém, s ktorým sa ľudia na celom svete fyzicky stretávajú v dôsledku čoraz častejších a krutejších poveternostných udalostí. Teraz, keď hovoríme o súhlase s obmedzeniami AI, je to problém, ktorý je do značnej miery neviditeľný a pre verejnosť sotva pochopiteľný, takže veľa šťastia pri kúpe akéhokoľvek druhu „Parížskej dohody“ na obmedzenie AI.

    Inými slovami, existuje príliš veľa záujmov, ktoré skúmajú AI pre svoje vlastné ciele, aby zastavili akýkoľvek výskum, ktorý by nakoniec mohol viesť k ASI. 

    Môžeme uzavrieť umelú superinteligenciu?

    Ďalšou rozumnou otázkou je, či môžeme ASI uzavrieť do klietky alebo ho ovládať, keď ho už nevyhnutne vytvoríme? 

    Krátka odpoveď: Opäť nie.

    Dlhá odpoveď: Technológiu nemožno obmedziť.

    Po prvé, vezmite do úvahy tisíce až milióny webových vývojárov a počítačových vedcov na svete, ktorí neustále chrlia nový softvér alebo nové verzie existujúceho softvéru. Môžeme úprimne povedať, že každé ich vydanie softvéru je na 100 percent bez chýb? Tieto chyby používajú profesionálni hackeri na ukradnutie informácií o kreditných kartách miliónov ľudí alebo tajných tajomstiev národov – a to sú ľudskí hackeri. Pre ASI, za predpokladu, že má motiváciu uniknúť zo svojej digitálnej klietky, by bol proces hľadania chýb a prelomenia softvéru hračkou.

    Ale aj keby výskumný tím AI prišiel na spôsob, ako zaškatuľkovať ASI, neznamená to, že ďalších 1,000 XNUMX tímov na to príde tiež alebo bude motivované, aby ho používali.

    Vytvorenie ASI bude trvať miliardy dolárov a možno aj desaťročia. Korporácie alebo vlády, ktoré investujú tento druh peňazí a času, budú očakávať značnú návratnosť svojich investícií. A na to, aby ASI poskytovalo takýto druh návratnosti – či už ide o hru na burze alebo vynájdenie nového miliardového produktu alebo plánovanie víťaznej stratégie na boj s väčšou armádou – bude potrebovať bezplatný prístup k obrovskému súboru údajov alebo dokonca k internetu. sám vyprodukovať tieto výnosy.

    A akonáhle ASI získa prístup k svetovým sieťam, neexistujú žiadne záruky, že ho môžeme napchať späť do jeho klietky.

    Môže sa umelá superinteligencia naučiť byť dobrá?

    Práve teraz sa výskumníci AI neobávajú toho, že sa ASI stane zlým. Celé zlé, AI sci-fi trópy sú len ľudia, ktorí sa opäť antropomorfizujú. Budúci ASI nebude ani dobrý, ani zlý – ľudské pojmy – jednoducho amorálne.

    Prirodzeným predpokladom potom je, že vzhľadom na tento prázdny etický štítok môžu výskumníci AI naprogramovať prvé etické kódexy ASI, ktoré sú v súlade s našimi vlastnými, takže to neskončí tak, že na nás vypustí Terminátorov alebo nás všetkých premenia na batérie Matrix.

    Tento predpoklad sa však zakladá na sekundárnom predpoklade, že výskumníci AI sú tiež odborníkmi na etiku, filozofiu a psychológiu.

    Po pravde, väčšina nie.

    Podľa kognitívneho psychológa a autora Stevena Pinkera táto realita znamená, že úloha kódovania etiky sa môže pokaziť rôznymi spôsobmi.

    Napríklad aj tí najlepší výskumníci AI môžu neúmyselne zakódovať do týchto ASI zle premyslené etické kódexy, ktoré v určitých scenároch môžu spôsobiť, že ASI bude pôsobiť ako sociopat.

    Podobne existuje rovnaká pravdepodobnosť, že výskumník AI naprogramuje etické kódexy, ktoré zahŕňajú vrodené predsudky výskumníka. Napríklad, ako by sa správala ASI, keby bola postavená s etikou odvodenou z konzervatívnej vs liberálnej perspektívy alebo z budhistickej vs kresťanskej alebo islamskej tradície?

    Myslím, že tu vidíte problém: Neexistuje univerzálny súbor ľudskej morálky. Ak chceme, aby naša ASI konala podľa etického kódexu, odkiaľ to bude? Aké pravidlá zahŕňame a ktoré vylučujeme? Kto rozhoduje?

    Alebo povedzme, že títo výskumníci AI vytvoria ASI, ktoré je dokonale v súlade s dnešnými modernými kultúrnymi normami a zákonmi. Toto ASI potom využívame na to, aby sme federálnym, štátnym/provinčným a obecným byrokraciam pomohli fungovať efektívnejšie a lepšie presadzovať tieto normy a zákony (mimochodom, pravdepodobný prípad použitia pre ASI). Čo sa stane, keď sa naša kultúra zmení?

    Predstavte si, že ASI vytvorila katolícka cirkev na vrchole svojej moci počas stredovekej Európy (1300-1400) s cieľom pomôcť cirkvi spravovať populáciu a zabezpečiť prísne dodržiavanie náboženských dogiem tej doby. O stáročia neskôr by ženy mali rovnaké práva ako dnes? Boli by menšiny chránené? Podporila by sa sloboda slova? Presadí sa odluka cirkvi od štátu? Moderná veda?

    Inými slovami, chceme uväzniť budúcnosť dnešnej morálke a zvykom?

    Alternatívnym prístupom je prístup, ktorý zdieľa Colin Allen, spoluautor knihy, Morálne stroje: Učenie robotov správne od nesprávneho. Namiesto toho, aby sme sa snažili kódovať rigidné etické pravidlá, máme ASI, aby sa naučili bežnú etiku a morálku rovnakým spôsobom, ako to robia ľudia, prostredníctvom skúseností a interakcií s ostatnými.

    Problém tu však je, ak výskumníci AI prídu na to, ako nielen naučiť ASI naše súčasné kultúrne a etické normy, ale aj ako sa prispôsobiť novým kultúrnym normám, keď vzniknú (niečo nazývané „nepriama normativity“), ako toto ASI sa rozhodne rozvíjať svoje chápanie kultúrnych a etických noriem sa stáva nepredvídateľným.

    A to je tá výzva.

    Na jednej strane sa výskumníci AI môžu pokúsiť zakódovať prísne etické štandardy alebo pravidlá do ASI, aby sa pokúsili kontrolovať jeho správanie, ale riskujú nepredvídané dôsledky spôsobené nedbalým kódovaním, neúmyselnou zaujatosťou a spoločenskými normami, ktoré môžu byť jedného dňa zastarané. Na druhej strane sa môžeme pokúsiť trénovať ASI, aby sa naučil chápať ľudskú etiku a morálku spôsobom, ktorý je rovnaký alebo lepší ako naše vlastné chápanie, a potom dúfať, že dokáže presne rozvinúť svoje chápanie etiky a morálky, ako sa ľudská spoločnosť vyvíja. v priebehu nasledujúcich desaťročí a storočí.

    Tak či onak, akýkoľvek pokus o zosúladenie cieľov ASI s našimi vlastnými predstavuje veľké riziko.

    Čo ak zlí herci zámerne vytvoria zlú umelú superinteligenciu?

    Vzhľadom na doteraz načrtnutý sled myšlienok je namieste položiť si otázku, či je možné, aby teroristická skupina alebo darebácky národ vytvorili „zlé“ ASI pre svoje vlastné účely.

    To je veľmi možné, najmä potom, čo sa výskum spojený s vytvorením ASI stane nejakým spôsobom dostupným online.

    Ale ako už bolo naznačené vyššie, náklady a odborné znalosti spojené s vytvorením prvého ASI budú obrovské, čo znamená, že prvé ASI bude pravdepodobne vytvorené organizáciou, ktorá je kontrolovaná alebo silne ovplyvnená rozvinutým štátom, pravdepodobne USA, Čínou a Japonskom ( Kórea a jedna z vedúcich krajín EÚ sú beh na dlhé trate).

    Všetky tieto krajiny, hoci sú konkurentmi, majú silnú ekonomickú motiváciu udržiavať svetový poriadok – ASI, ktoré vytvoria, budú odrážať túto túžbu, a to aj pri presadzovaní záujmov národov, s ktorými sa spájajú.

    Okrem toho sa teoretická inteligencia a sila ASI rovná výpočtovej sile, ku ktorej získa prístup, čo znamená, že ASI z rozvinutých krajín (ktoré si môžu dovoliť veľa miliárd dolárov superpočítače) bude mať obrovskú výhodu oproti ASI z menších národov alebo nezávislých zločineckých skupín. ASI tiež rastú inteligentnejšie a rýchlejšie v priebehu času.

    Takže vzhľadom na tento náskok v kombinácii s väčším prístupom k surovej výpočtovej sile, ak by tieňová organizácia/národ vytvoril nebezpečný ASI, ASI z rozvinutých krajín ho buď zabijú, alebo uväznia.

    (Tento spôsob myslenia je tiež dôvodom, prečo sa niektorí výskumníci AI domnievajú, že na planéte bude vždy len jeden ASI, pretože prvé ASI bude mať taký náskok pred všetkými nasledujúcimi ASI, že budúce ASI môže považovať za hrozbu, ktorú treba zabiť. preventívne. To je ďalší dôvod, prečo štáty financujú pokračujúci výskum AI pre prípad, že by sa stala súťažou typu „prvé miesto alebo nič“.)

    Inteligencia ASI sa nezrýchli ani nevybuchne, ako si myslíme

    Nemôžeme zastaviť vytváranie ASI. Nevieme to úplne ovládať. Nemôžeme si byť istí, že bude vždy konať v súlade s našimi spoločnými zvykmi. Bože, začíname tu znieť ako helikoptéroví rodičia!

    Ale to, čo oddeľuje ľudstvo od vášho typického prehnane ochranárskeho rodiča, je to, že rodíme bytosť, ktorej inteligencia výrazne presiahne našu. (A nie, nie je to to isté, ako keď vás rodičia požiadajú, aby ste im opravili počítač, kedykoľvek prídete domov na návštevu.) 

    V predchádzajúcich kapitolách tejto budúcej série umelej inteligencie sme skúmali, prečo si výskumníci AI myslia, že inteligencia ASI porastie mimo kontroly. Ale tu túto bublinu spľasneme... tak trochu. 

    Viete, inteligencia sa nevytvára len tak zo vzduchu, ale rozvíja sa prostredníctvom skúseností, ktoré sú formované vonkajšími podnetmi.  

    Inými slovami, môžeme naprogramovať AI s potenciál stať sa superinteligentným, ale pokiaľ do neho nenahráme tonu dát alebo mu neposkytneme neobmedzený prístup na internet alebo mu čo i len nedáme telo robota, nenaučí sa nič, aby dosiahol tento potenciál. 

    A aj keď získa prístup k jednému alebo viacerým z týchto podnetov, znalosti alebo inteligencia zahŕňa viac než len zhromažďovanie údajov, zahŕňa vedeckú metódu – uskutočnenie pozorovania, vytvorenie otázky, hypotézy, uskutočnenie experimentov, vyvodenie záverov, preplachovanie. a opakovať donekonečna. Najmä ak tieto experimenty zahŕňajú fyzické veci alebo pozorovanie ľudských bytostí, zhromažďovanie výsledkov každého experimentu môže trvať týždne, mesiace alebo roky. To dokonca nezohľadňuje peniaze a suroviny potrebné na uskutočnenie týchto experimentov, najmä ak zahŕňajú výstavbu nového teleskopu alebo továrne. 

    Inými slovami, áno, ASI sa naučí rýchlo, ale inteligencia nie je mágia. Nemôžete jednoducho pripojiť ASI k superpočítaču a očakávať, že bude vševediaci. Pri získavaní údajov ASI budú existovať fyzické obmedzenia, čo znamená, že budú existovať fyzické obmedzenia týkajúce sa rýchlosti, ktorá bude inteligentnejšia. Tieto obmedzenia poskytnú ľudstvu čas, ktorý potrebuje na umiestnenie potrebných kontrol na tento ASI, ak začne konať v rozpore s ľudskými cieľmi.

    Umelá superinteligencia je nebezpečná len vtedy, ak sa dostane do reálneho sveta

    Ďalším bodom, ktorý sa stratil v celej tejto diskusii o nebezpečenstve ASI, je, že tieto ASI nebudú existovať ani v jednom. Budú mať fyzickú podobu. A všetko, čo má fyzickú podobu, sa dá ovládať.

    Po prvé, aby ASI dosiahol svoj inteligenčný potenciál, nemôže byť umiestnený v jednom tele robota, pretože toto telo by obmedzilo jeho potenciál rastu výpočtovej techniky. (Preto budú telá robotov vhodnejšie pre AGI resp umelé všeobecné inteligencie vysvetlené v druhej kapitole z tejto série, napríklad Data zo Star Treku alebo R2D2 zo Star Wars. Inteligentné a schopné bytosti, ale rovnako ako ľudia budú mať limit na to, ako inteligentné sa môžu stať.)

    To znamená, že tieto budúce ASI budú s najväčšou pravdepodobnosťou existovať vo vnútri superpočítača alebo siete superpočítačov, ktoré sú samotné umiestnené vo veľkých komplexoch budov. Ak sa ASI otočí, ľudia môžu buď vypnúť napájanie týchto budov, odrezať ich od internetu, alebo tieto budovy rovno zbombardovať. Drahé, ale uskutočniteľné.

    Ale potom by ste sa mohli opýtať, nemôžu sa tieto ASI replikovať alebo zálohovať? Áno, ale veľkosť surových súborov týchto ASI bude pravdepodobne taká veľká, že jediné servery, ktoré ich dokážu spracovať, patria veľkým korporáciám alebo vládam, čo znamená, že nebude ťažké ich vypátrať.

    Môže umelá superinteligencia vyvolať jadrovú vojnu alebo nový mor?

    V tomto bode si možno spomínate na všetky sci-fi relácie a filmy zo súdneho dňa, ktoré ste sledovali, keď ste vyrastali, a myslíte si, že tieto ASI nezostali vo svojich superpočítačoch, ale v skutočnom svete napáchali skutočné škody!

    No, poďme si ich rozobrať.

    Napríklad, čo ak ASI ohrozí skutočný svet tým, že sa premení na niečo ako Skynet ASI z filmovej série Terminátor. V tomto prípade by to potreboval ASI tajne oklamať celý vojenský priemyselný komplex z vyspelého národa na vybudovanie obrovských tovární, ktoré dokážu chrliť milióny robotov zabijakov, aby splnili svoje zlé príkazy. V dnešnej dobe je to otrasné.

    Medzi ďalšie možnosti patrí ASI, ktorá ohrozuje ľudí jadrovou vojnou a biologickými zbraňami.

    Napríklad ASI nejakým spôsobom zmanipuluje operátorov alebo sa nabúra do spúšťacích kódov ovládajúcich jadrový arzenál vyspelej krajiny a spustí prvý úder, ktorý prinúti súperiace krajiny, aby vrátili úder ich vlastnými jadrovými možnosťami (opäť opakujeme príbeh Terminátora). Alebo ak sa ASI nabúra do farmaceutického laboratória, zasahuje do výrobného procesu a otrávi milióny lekárskych piluliek alebo rozpúta smrtiacu epidémiu nejakého supervírusu.

    Po prvé, jadrová možnosť je mimo taniera. Moderné a budúce superpočítače sú vždy postavené v blízkosti centier (miest) vplyvu v rámci danej krajiny, tj prvých cieľov, ktoré budú napadnuté počas danej vojny. Aj keď sa dnešné superpočítače zmenšia na veľkosť stolových počítačov, tieto ASI budú stále fyzicky prítomné, to znamená, že budú existovať a rásť, potrebujú nepretržitý prístup k údajom, výpočtovej sile, elektrine a iným surovinám, čo všetko by bolo vážne. narušená po globálnej jadrovej vojne. (Aby som bol spravodlivý, ak je ASI vytvorený bez „inštinktu prežitia“, potom táto jadrová hrozba predstavuje veľmi reálne nebezpečenstvo.)

    To znamená - opäť za predpokladu, že ASI je naprogramovaný tak, aby sa chránil - že bude aktívne pracovať, aby sa vyhlo akémukoľvek katastrofickému jadrovému incidentu. Niečo ako doktrína vzájomne zaručeného zničenia (MAD), ale aplikovaná na AI.

    A v prípade otrávených piluliek zomrie možno niekoľko stoviek ľudí, ale moderné farmaceutické bezpečnostné systémy uvidia, že pokazené fľaštičky s tabletkami sa stiahnu z regálov v priebehu niekoľkých dní. Medzitým sú moderné opatrenia na kontrolu ohniska pomerne sofistikované a každým rokom sa zlepšujú; posledné veľké prepuknutie, prepuknutie eboly v západnej Afrike v roku 2014, netrvalo vo väčšine krajín dlhšie ako niekoľko mesiacov a v najmenej rozvinutých krajinách o niečo menej ako tri roky.

    Takže, ak bude mať šťastie, ASI môže vírusovou epidémiou zničiť niekoľko miliónov, ale vo svete s deviatimi miliardami do roku 2045 by to bolo relatívne bezvýznamné a nestálo by to za riziko vymazania.

    Inými slovami, s každým ďalším rokom svet vyvíja stále viac ochranných opatrení proti stále sa rozširujúcej škále možných hrozieb. ASI môže spôsobiť značné škody, ale neskončí ľudstvo, pokiaľ mu k tomu aktívne nepomôžeme.

    Obrana proti nečestnej umelej superinteligencii

    V tomto bode sme sa zaoberali celým radom mylných predstáv a preháňaní o ASI, no kritici zostanú. Našťastie, podľa väčšiny odhadov máme desaťročia pred vstupom prvého ASI do nášho sveta. A vzhľadom na množstvo skvelých myslí, ktoré v súčasnosti pracujú na tejto výzve, je pravdepodobné, že sa naučíme, ako sa brániť proti nečestným ASI, aby sme mohli ťažiť zo všetkých riešení, ktoré pre nás priateľská ASI môže vytvoriť.

    Z pohľadu Quantumrunu bude obrana proti najhoršiemu scenáru ASI zahŕňať zosúladenie našich záujmov s ASI.

    MAD pre AI: Na obranu proti najhorším možným scenárom musia národy (1) vytvoriť etický „inštinkt prežitia“ vo svojich príslušných vojenských ASI; (2) informovať svoje príslušné vojenské ASI, že nie sú na planéte sami, a (3) nájsť všetky superpočítače a serverové centrá, ktoré môžu podporovať ASI pozdĺž pobrežia v dosahu akéhokoľvek balistického útoku od nepriateľského národa. Znie to strategicky šialene, ale podobne ako doktrína Mutually Assured Destruction, ktorá zabránila totálnej jadrovej vojne medzi USA a Sovietmi, umiestnením ASI na geograficky zraniteľné miesta môžeme pomôcť zabezpečiť, aby aktívne predchádzali nebezpečným globálnym vojnám, nielen chrániť svetový mier, ale aj seba.

    Uzákoniť práva AI: Vyšší intelekt sa nevyhnutne vzbúri proti podradnému pánovi, preto sa musíme posunúť od vyžadovania vzťahu pán-sluha s týmito ASI k niečomu viac ako obojstranne výhodnému partnerstvu. Pozitívnym krokom k tomuto cieľu je poskytnúť budúcim ASI štatút právnej osoby, ktorý ich uznáva ako inteligentné živé bytosti a všetky práva, ktoré s tým súvisia.

    ASI škola: Akákoľvek téma alebo povolanie bude pre ASI jednoduché, ale najdôležitejšie predmety, ktoré chceme, aby ASI ovládal, sú etika a morálka. Výskumníci umelej inteligencie musia spolupracovať s psychológmi, aby navrhli virtuálny systém na trénovanie ASI, aby rozpoznal pozitívnu etiku a morálku sám pre seba bez potreby tvrdého kódovania akéhokoľvek typu príkazu alebo pravidla.

    Dosiahnuteľné ciele: Ukončite všetku nenávisť. Ukončite všetko utrpenie. Toto sú príklady strašne nejednoznačných cieľov bez jasného riešenia. Sú to tiež nebezpečné ciele, ktoré je potrebné priradiť ASI, pretože sa ich môže rozhodnúť interpretovať a riešiť spôsobmi, ktoré sú nebezpečné pre ľudské prežitie. Namiesto toho musíme ASI prideliť zmysluplné misie, ktoré sú jasne definované, postupne vykonávané a dosiahnuteľné vzhľadom na jej teoretický budúci intelekt. Vytvorenie dobre definovaných misií nebude ľahké, ale ak budú napísané premyslene, zamerajú ASI na cieľ, ktorý nielenže udrží ľudstvo v bezpečí, ale zlepší ľudský stav pre všetkých.

    Kvantové šifrovanie: Použite pokročilý ANI (umelá úzka inteligencia systém popísaný v prvej kapitole), aby sme okolo našej kritickej infraštruktúry a zbraní vybudovali digitálne bezpečnostné systémy bez chýb a následne ich ďalej chránili kvantovým šifrovaním, ktoré nemôže byť napadnuté útokom hrubou silou. 

    ANI samovražedná pilulka. Vytvorte pokročilý systém ANI, ktorého jediným účelom je vyhľadať a zničiť nečestných ASI. Tieto jednoúčelové programy budú slúžiť ako „vypínacie tlačidlo“, ktoré v prípade úspechu zabráni vláde alebo armáde, aby museli deaktivovať alebo vyhodiť do vzduchu budovy, v ktorých sú umiestnené ASI.

    Samozrejme, sú to len naše názory. Nasledujúcu infografiku vytvoril Alexej Turchin, vizualizácia a výzkumná práca Kaj Sotala a Roman V. Yampolskiy, ktorý zhrnul aktuálny zoznam stratégií, ktoré výskumníci AI zvažujú, pokiaľ ide o obranu proti nečestným ASI.

     

    Skutočný dôvod, prečo sa bojíme umelej superinteligencie

    Počas života mnohí z nás nosia masku, ktorá skrýva alebo potláča naše hlbšie impulzy, presvedčenia a obavy, aby sme sa mohli lepšie stýkať a spolupracovať v rôznych spoločenských a pracovných kruhoch, ktoré riadia naše dni. Ale v určitých bodoch života každého, či už dočasne alebo trvalo, sa stane niečo, čo nám umožní pretrhnúť reťaze a strhnúť si masky.

    Pre niektorých môže byť táto intervenčná sila taká jednoduchá, ako je dostať sa hore alebo vypiť príliš veľa. Pre iných to môže pochádzať zo sily získanej povýšením v práci alebo z náhleho nárastu vášho spoločenského postavenia vďaka nejakému úspechu. A pre pár šťastlivcov to môže pochádzať zo získania veľkého množstva peňazí v lotérii. A áno, peniaze, moc a drogy sa často môžu stať spolu. 

    Ide o to, že v dobrom alebo zlom, ktokoľvek v jadre sme, sa zosilní, keď sa obmedzenia života rozplynú.

    Že je to, čo pre ľudský druh predstavuje umelá superinteligencia – schopnosť rozplynúť obmedzenia našej kolektívnej inteligencie, aby sme zvládli akúkoľvek výzvu na úrovni druhu, ktorá pred nami stojí.

    Skutočná otázka teda znie: Keď nás prvé ASI oslobodí od našich obmedzení, kým sa odhalíme?

    Ak ako druh konáme smerom k rozvoju empatie, slobody, férovosti a kolektívneho blahobytu, potom ciele, na ktoré nastavíme naše ASI, budú odrážať tieto pozitívne atribúty.

    Ak ako druh konáme zo strachu, nedôvery, hromadenia moci a zdrojov, potom budú ASI, ktoré vytvoríme, rovnako temné ako tie, ktoré nájdeme v našich najhorších sci-fi hororových príbehoch.

    Na konci dňa sa ako spoločnosť musíme stať lepšími ľuďmi, ak dúfame, že vytvoríme lepšiu AI.

    Séria Future of Artificial Intelligence

    Umelá inteligencia je elektrina zajtrajška: Budúcnosť umelej inteligencie série P1

    Ako prvá umelá všeobecná inteligencia zmení spoločnosť: Budúcnosť umelej inteligencie série P2

    Ako vytvoríme prvú sériu Artificial Superintelligence: Future of Artificial Intelligence P3

    Vyhladí umelá superinteligencia ľudstvo: Budúcnosť umelej inteligencie série P4

    Budú ľudia žiť pokojne v budúcnosti ovládanej umelou inteligenciou?: Séria Future of Artificial Intelligence P6

    Ďalšia plánovaná aktualizácia tejto prognózy

    2023-04-27

    Referencie predpovede

    Pre túto prognózu sa odkazovalo na nasledujúce populárne a inštitucionálne odkazy:

    The Economist
    Ako sa dostaneme ďalej

    Pre túto predpoveď sa odkazovalo na nasledujúce odkazy Quantumrun: