Jak se lidé budou bránit před umělou superinteligencí: Budoucnost umělé inteligence P5

KREDIT OBRAZU: Quantumrun

Jak se lidé budou bránit před umělou superinteligencí: Budoucnost umělé inteligence P5

    Píše se rok 65,000 XNUMX př. n. l. a jako a Thylacoleo, vy a váš druh jste byli velcí lovci starověké Austrálie. Toulal jsi se volně po zemi a žil jsi v rovnováze s ostatními predátory a kořistí, kteří okupovali zemi vedle tebe. Roční období přineslo změnu, ale vaše postavení ve zvířecí říši zůstalo nezpochybněno tak dlouho, jak jste si vy a vaši předkové pamatovali. Pak se jednoho dne objevili nováčci.

    Říká se, že dorazili z obří vodní stěny, ale těmto tvorům se zdálo pohodlnější žít na souši. Museli jste tyto tvory vidět na vlastní oči.

    Trvalo to pár dní, ale nakonec ses dostal na pobřeží. Oheň na obloze zapadal, ideální čas na špehování těchto tvorů, možná dokonce zkusit jednoho sníst, abyste viděli, jak chutnají.

    Najdeš jednu.

    Chodilo po dvou nohách a nemělo srst. Vypadalo to slabě. Nevýrazné. Sotva stojí za strach, který to v království vyvolalo.

    Začnete se opatrně přibližovat, zatímco noc zahání světlo. Jste stále blíž. Pak zmrznete. Ozvou se hlasité zvuky a pak se z lesa za ním objeví další čtyři. Kolik jich tam je?

    Tvor následuje ostatní do stromové linie a vy ho následujte. A čím více toho děláte, tím podivnější zvuky slyšíte, dokud neuvidíte ještě více těchto tvorů. Sledujete je z dálky, když vycházejí z lesa na mýtinu u břehu. Je jich mnoho. Ale co je důležitější, všichni klidně sedí u ohně.

    Tyto požáry jste už viděli. V horkém období oheň na obloze někdy zavítal na zemi a spálil celé lesy. Tito tvorové to na druhou stranu nějak ovládali. Jaký druh tvorů může mít takovou moc?

    Díváš se do dálky. Přes obří vodní stěnu přicházejí další.

    Uděláš krok zpět.

    Tato stvoření nejsou jako ostatní v království. Jsou něčím úplně novým.

    Rozhodnete se odejít a varovat své příbuzné. Pokud jejich počet příliš vzroste, kdo ví, co se může stát.

    ***

    Předpokládá se, že Thylacoleo vyhynul relativně krátkou dobu po příchodu lidí, spolu s většinou další megafauny na australském kontinentu. Žádní jiní vrcholoví predátoři savců nezaujali jeho místo – tedy pokud do této kategorie nepočítáte lidi.

    Hraní této alegorie je těžištěm této kapitoly seriálu: Promění nás budoucí umělá superinteligence (ASI) všechny v baterie a pak nás zapojí do Matrixu, nebo lidé přijdou na způsob, jak se nestát obětí sci-fi? Zápletka AI soudného dne?

    Zatím v našem seriálu na Budoucnost umělé inteligence, prozkoumali jsme všechny druhy umělé inteligence, včetně pozitivního potenciálu konkrétní formy umělé inteligence, ASI: umělé bytosti, jejíž budoucí inteligence nás ve srovnání s tím udělá jako mravence.

    Ale kdo by řekl, že takto chytrá bytost by přijímala rozkazy od lidí navždy. Co budeme dělat, když věci půjdou na jih? Jak se budeme bránit proti zlotřilému ASI?

    V této kapitole prosekneme falešný humbuk – alespoň pokud se týká nebezpečí „úrovně vyhynutí lidí“ – a zaměříme se na realistické možnosti sebeobrany, které mají světové vlády k dispozici.

    Můžeme zastavit veškerý další výzkum umělé superinteligence?

    Vzhledem k potenciálním rizikům, která by ASI mohla pro lidstvo představovat, je první zřejmou otázkou, kterou je třeba si položit: Nemůžeme prostě zastavit veškerý další výzkum AI? Nebo alespoň zakázat jakýkoli výzkum, který by nás mohl dostat nebezpečně blízko k vytvoření ASI?

    Krátká odpověď: Ne.

    Dlouhá odpověď: Podívejme se na různé hráče, kteří se zde účastní.

    Na úrovni výzkumu je dnes příliš mnoho výzkumníků AI z příliš mnoha startupů, společností a univerzit po celém světě. Pokud by se jedna společnost nebo země rozhodla omezit své úsilí ve výzkumu AI, prostě by pokračovala jinde.

    Mezitím nejcennější společnosti planety vydělávají jmění na používání systémů umělé inteligence ve svých konkrétních podnicích. Žádat je, aby zastavili nebo omezili svůj vývoj nástrojů umělé inteligence, je podobné, jako bychom je požádali, aby zastavili nebo omezili svůj budoucí růst. Finančně by to ohrozilo jejich dlouhodobé podnikání. Z právního hlediska mají korporace svěřenskou odpovědnost za neustálé budování hodnoty pro své akcionáře; to znamená, že jakékoli jednání, které by omezilo růst této hodnoty, by mohlo vést k soudnímu sporu. A pokud by se nějaký politik pokusil omezit výzkum AI, pak by tyto obří korporace jen zaplatily nezbytné poplatky za lobbování, aby změnily svůj názor nebo názor svých kolegů.

    Pro boj, stejně jako teroristé a bojovníci za svobodu po celém světě používali partyzánskou taktiku k boji proti lépe financovaným armádám, budou mít menší národy motivaci používat AI jako podobnou taktickou výhodu proti větším národům, které mohou mít řadu vojenských výhod. Stejně tak pro špičkové armády, jako jsou ty, které patří USA, Rusku a Číně, je vybudování vojenského ASI na stejné úrovni jako mít v zadní kapse arzenál jaderných zbraní. Jinými slovy, všechny armády budou pokračovat ve financování umělé inteligence, aby zůstaly relevantní i v budoucnu.

    A co vlády? Po pravdě řečeno, většina dnešních politiků (2018) je technologicky negramotná a málo rozumí tomu, co je umělá inteligence nebo její budoucí potenciál – díky tomu je lze snadno manipulovat firemními zájmy.

    A na globální úrovni zvažte, jak těžké bylo přesvědčit světové vlády, aby podepsaly rok 2015 dohoda Paris vypořádat se se změnou klimatu – a jakmile byly podepsány, mnoho závazků ani nebylo závazných. Nejen to, změna klimatu je problém, se kterým se lidé po celém světě fyzicky potýkají v důsledku stále častějších a horších povětrnostních jevů. Nyní, když mluvíme o souhlasu s omezeními AI, je to problém, který je z velké části neviditelný a pro veřejnost stěží srozumitelný, takže hodně štěstí při nákupu jakéhokoli druhu „Pařížské dohody“ o omezení AI.

    Jinými slovy, existuje příliš mnoho zájmů zkoumajících AI pro své vlastní cíle, aby zastavily jakýkoli výzkum, který by nakonec mohl vést k ASI. 

    Dokážeme uzavřít umělou superinteligenci?

    Další rozumnou otázkou je, zda můžeme ASI držet v kleci nebo ovládat, jakmile jej nevyhnutelně vytvoříme? 

    Krátká odpověď: Opět ne.

    Dlouhá odpověď: Technologii nelze zadržet.

    Za prvé, stačí vzít v úvahu tisíce až miliony webových vývojářů a počítačových vědců na světě, kteří neustále chrlí nový software nebo nové verze stávajícího softwaru. Můžeme upřímně říci, že každé jejich vydání softwaru je 100% bez chyb? Tyto chyby používají profesionální hackeři ke krádeži informací o kreditních kartách milionů lidí nebo tajných tajemství národů – a to jsou lidské hackeři. Pro ASI, za předpokladu, že má motivaci uniknout z digitální klece, pak by byl proces hledání chyb a prolomení softwaru hračkou.

    Ale i kdyby výzkumný tým AI přišel na způsob, jak zaškatulkovat ASI, neznamená to, že dalších 1,000 XNUMX týmů na to přijde také nebo bude motivováno k jeho použití.

    Vytvoření ASI bude trvat miliardy dolarů a možná i desetiletí. Korporace nebo vlády, které investují tento druh peněz a času, budou očekávat významnou návratnost svých investic. A aby ASI poskytovalo tento druh návratnosti – ať už jde o hru na akciovém trhu nebo vynalézání nového miliardového produktu nebo plánování vítězné strategie pro boj s větší armádou – bude potřebovat bezplatný přístup k obrovskému souboru dat nebo dokonce k internetu. sama produkovat tyto výnosy.

    A jakmile ASI získá přístup ke světovým sítím, neexistují žádné záruky, že ho nacpeme zpět do jeho klece.

    Může se umělá superinteligence naučit být dobrá?

    Právě teď se výzkumníci AI neobávají, že by se ASI stalo zlým. Celé to zlé, AI sci-fi trope jsou jen lidé, kteří se znovu antropomorfizují. Budoucí ASI nebude ani dobro, ani zlo – lidské pojmy – jednoduše amorální.

    Přirozeným předpokladem pak je, že s ohledem na tento prázdný etický štítek mohou výzkumníci umělé inteligence naprogramovat první etické kodexy ASI, které jsou v souladu s našimi vlastními, takže to neskončí tak, že na nás vypustí Terminátory nebo že nás všechny změní na baterie Matrixu.

    Tento předpoklad se však zakládá na sekundárním předpokladu, že výzkumníci umělé inteligence jsou také odborníky na etiku, filozofii a psychologii.

    Ve skutečnosti většina není.

    Podle kognitivního psychologa a autora Stevena Pinkera tato realita znamená, že úkol kódování etiky se může pokazit mnoha různými způsoby.

    Například i ti nejlepší výzkumníci AI mohou neúmyslně zakódovat do těchto ASI špatně promyšlených etických kodexů, které v určitých scénářích mohou způsobit, že se ASI bude chovat jako sociopat.

    Stejně tak existuje stejná pravděpodobnost, že výzkumník AI naprogramuje etické kodexy, které zahrnují vrozené předsudky výzkumníka. Jak by se například ASI choval, kdyby byl postaven s etikou odvozenou z konzervativní vs liberální perspektivy, nebo z buddhistické vs. křesťanské či islámské tradice?

    Myslím, že problém vidíte zde: Neexistuje žádný univerzální soubor lidské morálky. Pokud chceme, aby naše ASI jednala podle etického kodexu, odkud se to vezme? Jaká pravidla zahrnujeme a vylučujeme? kdo rozhoduje?

    Nebo řekněme, že tito výzkumníci AI vytvoří ASI, která je dokonale v souladu s dnešními moderními kulturními normami a zákony. Toto ASI pak využíváme, abychom pomohli federálním, státním/provinčním a obecním byrokracím fungovat efektivněji a lépe prosazovat tyto normy a zákony (mimochodem pravděpodobný případ použití pro ASI). Co se stane, když se naše kultura změní?

    Představte si, že ASI vytvořila katolická církev na vrcholu své moci během středověké Evropy (1300-1400) s cílem pomoci církvi řídit populaci a zajistit přísné dodržování náboženského dogmatu té doby. Měly by ženy o staletí později stejná práva jako dnes? Budou menšiny chráněny? Byla by prosazována svoboda slova? Byla by prosazena odluka církve od státu? Moderní věda?

    Jinými slovy, chceme uvěznit budoucnost dnešní morálce a zvyklostem?

    Alternativní přístup je ten, který sdílí Colin Allen, spoluautor knihy, Moral Machines: Výuka robotů správně od špatného. Místo toho, abychom se snažili kódovat rigidní etická pravidla, máme ASI, aby se naučili běžnou etiku a morálku stejným způsobem, jakým to dělají lidé, prostřednictvím zkušeností a interakcí s ostatními.

    Problém je však v tom, že pokud výzkumníci umělé inteligence přijdou nejen na to, jak naučit ASI našim současným kulturním a etickým normám, ale také jak se přizpůsobit novým kulturním normám, jakmile vzniknou (něco, čemu se říká „nepřímá normativity“), jak toto ASI se rozhodne vyvinout své chápání kulturních a etických norem se stává nepředvídatelným.

    A to je ta výzva.

    Na jedné straně se výzkumníci umělé inteligence mohou pokusit zakódovat do ASI přísné etické standardy nebo pravidla, aby se pokusili kontrolovat jeho chování, ale riskují nepředvídatelné důsledky vyplývající z nedbalého kódování, neúmyslné zaujatosti a společenských norem, které se jednoho dne mohou stát zastaralými. Na druhou stranu se můžeme pokusit vycvičit ASI, aby se naučilo chápat lidskou etiku a morálku způsobem, který je rovnocenný nebo lepší než naše vlastní chápání, a pak doufat, že může své chápání etiky a morálky přesně rozvinout, jak se lidská společnost vyvíjí. v nadcházejících desetiletích a staletích.

    Ať tak či onak, jakýkoli pokus sladit cíle ASI s našimi vlastními představuje velké riziko.

    Co když špatní herci záměrně vytvářejí zlou umělou superinteligenci?

    Vzhledem k dosud načrtnutému myšlenkovému pochodu je namístě položit si otázku, zda je možné, aby teroristická skupina nebo zlotřilý národ vytvořili „zlé“ ASI pro své vlastní účely.

    To je velmi možné, zvláště poté, co bude výzkum související s vytvářením ASI nějak dostupný online.

    Ale jak již bylo naznačeno dříve, náklady a odborné znalosti spojené s vytvořením prvního ASI budou enormní, což znamená, že první ASI bude pravděpodobně vytvořeno organizací, která je řízena nebo silně ovlivněna rozvinutou zemí, pravděpodobně USA, Čínou a Japonskem ( Korea a jedna z předních zemí EU jsou běh na dlouhou trať).

    Všechny tyto země, i když jsou konkurenty, mají každá silnou ekonomickou motivaci udržovat světový řád – ASI, které vytvářejí, budou tuto touhu odrážet, i když budou prosazovat zájmy národů, se kterými se spojují.

    Kromě toho se teoretická inteligence a výkon ASI rovná výpočetnímu výkonu, ke kterému získá přístup, což znamená, že ASI z rozvinutých zemí (které si mohou dovolit spoustu miliard dolarů superpočítače) bude mít obrovskou výhodu oproti ASI z menších národů nebo nezávislých zločineckých skupin. Také ASI rostou inteligentněji a rychleji v průběhu času.

    Takže vzhledem k tomuto náskoku v kombinaci s větším přístupem k surovému výpočetnímu výkonu, pokud by stínová organizace/národ vytvořil nebezpečný ASI, ASI z rozvinutých zemí ho buď zabijí, nebo zavře do klece.

    (Tento způsob myšlení je také důvodem, proč se někteří výzkumníci AI domnívají, že na planetě bude vždy pouze jeden ASI, protože první ASI bude mít takový náskok před všemi následujícími ASI, že by budoucí ASI mohl považovat za hrozbu, kterou je třeba zabít. preventivně. To je další důvod, proč státy financují pokračující výzkum v oblasti umělé inteligence, pro případ, že by se stala soutěží „na prvním místě nebo nic“.)

    Inteligence ASI se nezrychlí ani nevybuchne, jak si myslíme

    Nemůžeme zabránit vytvoření ASI. Nemůžeme to úplně ovládat. Nemůžeme si být jisti, že bude vždy jednat v souladu s našimi společnými zvyklostmi. Bože, začínáme znít jako rodiče z vrtulníku!

    Ale to, co odděluje lidstvo od vašeho typického přehnaně ochranitelského rodiče, je to, že rodíme bytost, jejíž inteligence výrazně překročí naši. (A ne, není to totéž, jako když vás rodiče požádají, abyste jim opravili počítač, kdykoli přijdete domů na návštěvu.) 

    V předchozích kapitolách této budoucí série umělé inteligence jsme prozkoumali, proč si výzkumníci AI myslí, že inteligence ASI poroste mimo kontrolu. Ale tady tu bublinu splaskneme… tak nějak. 

    Víte, inteligence se nevytváří jen tak ze vzduchu, ale vyvíjí se prostřednictvím zkušeností, které jsou formovány vnějšími podněty.  

    Jinými slovy, můžeme naprogramovat AI pomocí potenciál stát se superinteligentní, ale pokud do něj nenahrajeme tunu dat nebo mu nedáme neomezený přístup k internetu nebo mu dokonce jen nedáme tělo robota, nenaučí se nic, aby tohoto potenciálu dosáhlo. 

    A i když získat přístup k jednomu nebo více z těchto podnětů, znalosti nebo inteligence zahrnují více než jen shromažďování dat, zahrnuje vědeckou metodu – pozorování, vytváření otázky, hypotézy, provádění experimentů, vyvozování závěrů, proplachování. a opakovat donekonečna. Zejména pokud tyto experimenty zahrnují fyzické věci nebo pozorování lidských bytostí, může shromažďování výsledků každého experimentu trvat týdny, měsíce nebo roky. To ani nebere v úvahu peníze a suroviny potřebné k provedení těchto experimentů, zvláště pokud zahrnují stavbu nového dalekohledu nebo továrny. 

    Jinými slovy, ano, ASI se naučí rychle, ale inteligence není žádná magie. Nemůžete jen tak připojit ASI k superpočítači a očekávat, že bude vševědoucí. Budou existovat fyzická omezení pro získávání dat ze strany ASI, což znamená, že budou existovat fyzická omezení pro rychlost, kterou bude inteligentnější. Tato omezení poskytnou lidstvu čas, který potřebuje k umístění nezbytných kontrol na toto ASI, pokud začne jednat v rozporu s lidskými cíli.

    Umělá superinteligence je nebezpečná pouze tehdy, pokud se dostane do skutečného světa

    Dalším bodem, který se v celé této debatě o nebezpečí ASI ztrácí, je, že tyto ASI nebudou existovat ani v jednom. Budou mít fyzickou podobu. A vše, co má fyzickou podobu, lze ovládat.

    Za prvé, aby ASI dosáhlo svého inteligenčního potenciálu, nemůže být umístěno v jediném těle robota, protože toto tělo by omezovalo jeho potenciál růstu výpočetní techniky. (Proto budou těla robotů vhodnější pro AGI resp umělé obecné inteligence vysvětlené ve druhé kapitole této série, jako Data ze Star Treku nebo R2D2 ze Star Wars. Chytré a schopné bytosti, ale stejně jako lidé budou mít limit toho, jak chytré mohou být.)

    To znamená, že tyto budoucí ASI budou s největší pravděpodobností existovat uvnitř superpočítače nebo sítě superpočítačů, které jsou samy umístěny ve velkých komplexech budov. Pokud se ASI otočí, lidé mohou buď vypnout napájení těchto budov, odříznout je od internetu, nebo tyto budovy rovnou vybombardovat. Drahé, ale proveditelné.

    Ale pak se můžete zeptat, nemohou se tyto ASI replikovat nebo zálohovat? Ano, ale velikost nezpracovaných souborů těchto ASI bude pravděpodobně tak velká, že jediné servery, které je zvládnou, budou patřit velkým korporacím nebo vládám, což znamená, že nebude těžké je ulovit.

    Může umělá superinteligence vyvolat jadernou válku nebo nový mor?

    V tuto chvíli si možná vzpomenete na všechny sci-fi pořady a filmy ze soudného dne, které jste sledovali, když jste vyrůstali, a myslíte si, že tyto ASI nezůstaly ve svých superpočítačích, ale ve skutečném světě způsobily skutečné škody!

    No, pojďme to rozebrat.

    Například, co když ASI ohrožuje skutečný svět tím, že se promění v něco jako Skynet ASI z filmové franšízy, Terminátor. V tomto případě by to potřeboval ASI tajně napálit celý vojensko-průmyslový komplex z vyspělého národa na vybudování obřích továren, které dokážou chrlit miliony zabijáckých dronových robotů, aby splnili jeho zlé příkazy. V dnešní době je to opruz.

    Mezi další možnosti patří ASI ohrožující lidi jadernou válkou a biologickými zbraněmi.

    Například ASI nějakým způsobem zmanipuluje operátory nebo se nabourá do odpalovacích kódů ovládajících jaderný arzenál vyspělého národa a zahájí první úder, který donutí nepřátelské země vrátit úder vlastními jadernými možnostmi (opět opakování příběhu Terminátora). Nebo když se ASI nabourá do farmaceutické laboratoře, zmanipuluje výrobní proces a otráví miliony lékařských pilulek nebo rozpoutá smrtící propuknutí nějakého superviru.

    Za prvé, jaderná možnost je mimo mísu. Moderní a budoucí superpočítače jsou vždy stavěny blízko center (měst) vlivu v dané zemi, tj. k prvním cílům, které budou napadeny během dané války. I kdyby se dnešní superpočítače zmenšily na velikost stolních počítačů, tato ASI budou stále fyzicky přítomná, to znamená, že budou existovat a růst, potřebují nepřetržitý přístup k datům, výpočetnímu výkonu, elektřině a dalším surovinám, což vše by bylo velmi náročné. narušena po globální jaderné válce. (Abychom byli spravedliví, pokud je ASI vytvořen bez „pudu přežití“, pak tato jaderná hrozba představuje velmi reálné nebezpečí.)

    To znamená – opět za předpokladu, že ASI je naprogramován tak, aby se chránil – že bude aktivně pracovat, aby se vyhnul jakékoli katastrofické jaderné nehodě. Něco jako doktrína vzájemně zaručeného zničení (MAD), ale aplikovaná na AI.

    A v případě otrávených pilulek zemře možná několik stovek lidí, ale moderní farmaceutické bezpečnostní systémy uvidí, že pokažené lahvičky s pilulkami budou během několika dnů staženy z regálů. Mezitím jsou moderní opatření pro kontrolu ohniska poměrně sofistikovaná a každým rokem se zlepšují; poslední velké ohnisko, epidemie eboly v západní Africe v roce 2014, netrvalo ve většině zemí déle než několik měsíců a v nejméně rozvinutých zemích necelé tři roky.

    Takže pokud bude mít štěstí, ASI může zničit několik milionů virem, ale ve světě s devíti miliardami do roku 2045 by to bylo relativně bezvýznamné a nestálo by to za riziko, že bude smazáno.

    Jinými slovy, s každým dalším rokem svět vyvíjí stále více ochranných opatření proti stále širší škále možných hrozeb. ASI může způsobit značné škody, ale lidstvo neskončí, pokud mu k tomu aktivně nepomůžeme.

    Obrana proti zlotřilé umělé superinteligenci

    V tomto bodě jsme se zabývali řadou mylných představ a přehánění o ASI, a přesto kritici zůstanou. Naštěstí podle většiny odhadů máme desítky let, než do našeho světa vstoupí první ASI. A vzhledem k počtu skvělých mozků, které v současné době pracují na této výzvě, je pravděpodobné, že se naučíme, jak se bránit proti nečestným ASI, abychom mohli těžit ze všech řešení, která pro nás přátelská ASI může vytvořit.

    Z pohledu Quantumrunu bude obrana proti nejhoršímu scénáři ASI zahrnovat sladění našich zájmů s ASI.

    MAD pro AI: K obraně proti nejhorším scénářům musí národy (1) vytvořit etický „pud přežití“ ve svých příslušných vojenských ASI; (2) informovat své příslušné vojenské ASI, že nejsou na planetě sami, a (3) lokalizovat všechny superpočítače a serverová centra, která mohou podporovat ASI podél pobřeží v dosahu jakéhokoli balistického útoku nepřátelského národa. To zní strategicky bláznivě, ale podobně jako doktrína Mutually Assured Destruction, která zabránila totální jaderné válce mezi USA a Sověty, umístěním ASI do geograficky zranitelných míst můžeme pomoci zajistit, aby aktivně předcházely nebezpečným globálním válkám, nejen proti chránit světový mír, ale také sami sebe.

    Uzákonit práva AI: Vyšší intelekt se nevyhnutelně vzbouří proti podřízenému pánovi, proto se musíme posunout od požadavku vztahu pán-sluha s těmito ASI k něčemu, co je více jako vzájemně výhodné partnerství. Pozitivním krokem k tomuto cíli je dát budoucím ASI statut právní osoby, který je uznává jako inteligentní živé bytosti a všechna práva s tím spojená.

    škola ASI: Jakékoli téma nebo profese se bude ASI snadno učit, ale nejdůležitější předměty, které chceme, aby ASI zvládl, jsou etika a morálka. Výzkumníci umělé inteligence potřebují spolupracovat s psychology, aby vymysleli virtuální systém, který by ASI vycvičil, aby sám rozpoznával pozitivní etiku a morálku, aniž by bylo nutné tvrdě kódovat jakýkoli typ přikázání nebo pravidla.

    Dosažitelné cíle: Ukončete veškerou nenávist. Ukončete veškeré utrpení. Toto jsou příklady strašně nejednoznačných cílů bez jasného řešení. Jsou to také nebezpečné cíle, které je třeba přiřadit ASI, protože se může rozhodnout je interpretovat a řešit způsoby, které jsou nebezpečné pro lidské přežití. Místo toho musíme ASI přidělit smysluplné mise, které jsou jasně definované, postupně prováděné a dosažitelné vzhledem k jeho teoretickému budoucímu intelektu. Vytváření dobře definovaných misí nebude snadné, ale pokud budou napsány promyšleně, zaměří ASI na cíl, který nejen udrží lidstvo v bezpečí, ale zlepší lidskou kondici pro všechny.

    Kvantové šifrování: Použijte pokročilé ANI (umělá úzká inteligence systém popsaný v první kapitole) k vybudování digitálních bezpečnostních systémů bez chyb/chyb kolem naší kritické infrastruktury a zbraní a jejich další ochraně pomocí kvantového šifrování, které nemůže být napadeno útokem hrubou silou. 

    ANI sebevražedná pilulka. Vytvořte pokročilý systém ANI, jehož jediným účelem je vyhledat a zničit darebácké ASI. Tyto jednoúčelové programy budou sloužit jako „vypínací tlačítko“, které v případě úspěchu zabrání vládám nebo armádám, aby museli deaktivovat nebo vyhodit do povětří budovy, ve kterých sídlí ASI.

    Samozřejmě jsou to jen naše názory. Následující infografiku vytvořil Alexej Turchin, vizualizace a výzkum papír Kaj Sotala a Roman V. Yampolskiy, který shrnul aktuální seznam strategií, které výzkumníci umělé inteligence zvažují, pokud jde o obranu proti nečestnému ASI.

     

    Skutečný důvod, proč se bojíme umělé superinteligence

    Během života mnozí z nás nosí masku, která skrývá nebo potlačuje naše hlubší impulsy, přesvědčení a obavy, abychom se mohli lépe socializovat a spolupracovat v různých sociálních a pracovních kruzích, které řídí naše dny. Ale v určitých okamžicích života každého, ať už dočasně nebo trvale, se stane něco, co nám umožní zlomit naše řetězy a strhnout naše masky.

    Pro některé může být tato intervenující síla tak jednoduchá, jako je vzdát se nebo vypít příliš mnoho. Pro jiné to může pocházet z moci získané povýšením v práci nebo náhlým nárazem do vašeho společenského postavení díky nějakému úspěchu. A pro pár šťastlivců to může pocházet ze skórování velkého množství peněz v loterii. A ano, peníze, moc a drogy se často mohou stát společně. 

    Jde o to, ať už v dobrém nebo ve zlém, ať už jsme v jádru kdokoli, zesílí se, když se omezení života rozplynou.

    Že je to, co umělá superinteligence představuje pro lidský druh – schopnost rozpustit omezení naší kolektivní inteligence, abychom zvládli jakoukoli výzvu na úrovni druhu, která před námi stojí.

    Skutečná otázka tedy zní: Jakmile nás první ASI zbaví našich omezení, kým se ukážeme, že jsme?

    Pokud jako druh jednáme směrem k rozvoji empatie, svobody, spravedlnosti a kolektivního blaha, pak cíle, ke kterým si klademe naše ASI, budou odrážet tyto pozitivní atributy.

    Pokud jako druh jednáme ze strachu, nedůvěry, hromadění moci a zdrojů, pak ASI, které vytvoříme, budou stejně temné jako ty, které se nacházejí v našich nejhorších sci-fi hororových příbězích.

    Na konci dne se jako společnost musíme stát lepšími lidmi, pokud doufáme, že vytvoříme lepší AI.

    Seriál Budoucnost umělé inteligence

    Umělá inteligence je elektřina zítřka: Budoucnost umělé inteligence série P1

    Jak první umělá všeobecná inteligence změní společnost: Future of Artificial Intelligence série P2

    Jak vytvoříme první sérii Artificial Superintelligence: Future of Artificial Intelligence P3

    Vyhladí umělá superinteligence lidstvo: Budoucnost umělé inteligence série P4

    Budou lidé žít mírumilovně v budoucnosti ovládané umělou inteligencí?: Future of Artificial Intelligence série P6

    Další plánovaná aktualizace této prognózy

    2023-04-27

    Předpověď reference

    Pro tuto prognózu byly uvedeny následující populární a institucionální odkazy:

    The Economist
    Jak se dostaneme k dalšímu

    Pro tuto předpověď byly odkazovány následující odkazy Quantumrun: