Hogyan védekeznek az emberek a mesterséges szuperintelligencia ellen: A mesterséges intelligencia jövője P5

KÉP HITEL: Quantumrun

Hogyan védekeznek az emberek a mesterséges szuperintelligencia ellen: A mesterséges intelligencia jövője P5

    Az év i. e. 65,000 XNUMX, és mint a Thylacoleo, te és a fajtád az ókori Ausztrália nagy vadászai voltatok. Szabadon barangoltál a földön, és egyensúlyban éltél a többi ragadozóval és prédával, akik elfoglalták a földet melletted. Az évszakok változást hoztak, de a státuszod az állatvilágban megkérdőjelezhetetlen maradt mindaddig, amíg te és az őseid emlékeztek. Aztán egy napon új jövevények jelentek meg.

    A pletykák szerint az óriási vízfalról érkeztek, de ezek a lények kényelmesebbnek tűntek a szárazföldön élni. Magának kellett látnia ezeket a lényeket.

    Beletelt néhány napba, de végül eljutottál a partra. Az égen kialudt a tűz, tökéletes alkalom volt kémkedni ezek után a lények után, és talán még meg is próbálhatni egyet, hogy megnézze, milyen ízűek.

    Kiszúrsz egyet.

    Két lábon járt, és nem volt bundája. Gyengének tűnt. Nem lenyűgöző. Aligha éri meg a félelmet, amelyet a királyságban okozott.

    Óvatosan kezdesz közeledni, miközben az éjszaka elűzi a fényt. Egyre közelebb kerülsz. Aztán lefagysz. Hangos zajok hallatszanak, majd újabb négyen tűnnek fel mögötte az erdőből. Hányan vannak?

    A lény követi a többieket a fasorba, te pedig követed. És minél többet teszel, annál furcsább hangokat hallasz, amíg még több ilyen lényt nem veszel észre. Távolról követed, amint kilépnek az erdőből egy part menti tisztásra. Sok ilyen van. De ami még fontosabb, mindannyian nyugodtan ülnek a tűz körül.

    Láttad már ezeket a tüzeket. A forró évszakban az égi tűz néha meglátogatta a földet, és egész erdőket égetett el. Másrészt ezek a lények valahogy irányították. Milyen lények birtokolhatnak ilyen erőt?

    A távolba nézel. Többen jönnek át az óriási vízfalon.

    Tegyél egy lépést hátra.

    Ezek a lények nem olyanok, mint a többiek a királyságban. Ezek valami teljesen új.

    Úgy döntesz, hogy elhagyod, és figyelmezteted a rokonodat. Ha túl nagyra nő a számuk, ki tudja, mi történhet.

    ***

    Feltételezések szerint a Thylacoleo az emberek érkezése után viszonylag rövid időn belül kihalt, az ausztrál kontinens többi megafaunájával együtt. Más csúcsemlős ragadozók nem vették át a helyét – hacsak nem számítjuk az embereket ebbe a kategóriába.

    Ennek az allegóriának a kijátszása áll a sorozat e fejezetének középpontjában: Vajon egy jövőbeli mesterséges szuperintelligencia (ASI) mindannyiunkat akkumulátorokká varázsol, majd a Mátrixba csatlakoztat, vagy az emberek kitalálják a módját, hogyan ne váljanak egy sci-fi áldozatává? AI világvége cselekmény?

    Eddigi sorozatunkban a A mesterséges intelligencia jövője, mindenfajta MI-t megvizsgáltunk, beleértve a mesterséges intelligencia egy bizonyos formájának, az ASI-nak a pozitív potenciálját: egy mesterséges lény, akinek jövőbeli intelligenciája ehhez képest hangyáknak fog tűnni.

    De ki mondhatja, hogy egy ilyen okos lény örökké elfogadja az emberektől kapott parancsokat. Mit tegyünk, ha délre mennek a dolgok? Hogyan védekezzünk egy szélhámos ASI ellen?

    Ebben a fejezetben átvágjuk a hamis hírverést – legalábbis ami az „emberi kipusztulási szintű” veszélyekkel kapcsolatos –, és a világ kormányai számára elérhető reális önvédelmi lehetőségekre összpontosítunk.

    Leállíthatjuk a mesterséges szuperintelligencia további kutatásait?

    Tekintettel arra, hogy az ASI milyen potenciális kockázatokat jelenthet az emberiség számára, az első nyilvánvaló kérdés, amelyet fel kell tenni: Nem állíthatjuk le az AI-val kapcsolatos további kutatásokat? Vagy legalább tiltson meg minden olyan kutatást, amely veszélyesen közel kerülhet az ASI létrehozásához?

    Rövid válasz: Nem.

    Hosszú válasz: Nézzük meg a különböző szereplőket.

    Kutatási szinten ma túl sok mesterséges intelligencia-kutató dolgozik túl sok startuptól, vállalattól és egyetemtől szerte a világon. Ha egy vállalat vagy ország úgy döntene, hogy korlátozza mesterségesintelligencia-kutatási erőfeszítéseit, egyszerűen máshol folytatná.

    Eközben a bolygó legértékesebb vállalatai abból keresik a vagyonukat, hogy mesterséges intelligencia rendszereket alkalmaznak sajátos üzleteikben. Ha arra kérik őket, hogy állítsák le vagy korlátozzák az AI-eszközök fejlesztését, az olyan, mintha arra kérnénk őket, hogy állítsák le vagy korlátozzák jövőbeni növekedésüket. Ez pénzügyileg veszélyeztetné hosszú távú üzletüket. Jogilag a vállalatok bizalmi felelősséggel tartoznak azért, hogy folyamatosan értéket építsenek érdekelt feleik számára; ez azt jelenti, hogy minden olyan intézkedés, amely korlátozza ennek az értéknek a növekedését, perhez vezethet. És ha bármely politikus megpróbálná korlátozni a mesterséges intelligencia kutatását, akkor ezek az óriásvállalatok csak a szükséges lobbidíjat fizetnék azért, hogy meggondolják magukat vagy kollégáik véleményét.

    A harcban, ahogyan a terroristák és szabadságharcosok szerte a világon gerillataktikát alkalmaztak a jobban finanszírozott hadseregek elleni küzdelemben, a kisebb nemzeteket is ösztönözni fogják, hogy az AI-t hasonló taktikai előnyként használják a nagyobb nemzetekkel szemben, amelyek számos katonai előnnyel járhatnak. Hasonlóképpen, a csúcskatonák számára, mint például az Egyesült Államokhoz, Oroszországhoz és Kínához tartozó katonai ASI felépítése egyenértékű azzal, mintha nukleáris fegyverek arzenálja lenne a hátsó zsebében. Más szóval, minden katonaság továbbra is finanszírozza a mesterséges intelligenciát, hogy a jövőben is releváns maradjon.

    Mi a helyzet a kormányokkal? Az igazat megvallva, manapság (2018) a legtöbb politikus technológiailag analfabéta, és nemigen érti, mi az AI vagy annak jövőbeli lehetőségei – ez megkönnyíti őket a vállalati érdekek által manipulálhatóvá.

    Globális szinten pedig vegyük figyelembe, milyen nehéz volt meggyőzni a világ kormányait a 2015. évi megállapodás aláírásáról Paris megállapodás az éghajlatváltozás leküzdésére – és miután aláírták, sok kötelezettség már nem is volt kötelező. Nemcsak az, hogy az éghajlatváltozás olyan probléma, amelyet az emberek fizikailag tapasztalnak világszerte az egyre gyakoribb és súlyosabb időjárási események miatt. Nos, amikor a mesterséges intelligencia korlátainak elfogadásáról beszélünk, ez egy olyan probléma, amely nagyrészt láthatatlan és alig érthető a közvélemény számára, tehát sok szerencsét kívánunk a mesterséges intelligencia korlátozására vonatkozó bármilyen „Párizsi Megállapodás” megvásárlásához.

    Más szóval, túl sok érdeklődési kör kutatja az MI-t saját céljai érdekében ahhoz, hogy leállítson minden olyan kutatást, amely végül ASI-hez vezethet. 

    Bezárhatunk egy mesterséges szuperintelligenciát?

    A következő ésszerű kérdés az, hogy be tudjuk-e zárni vagy irányítani az ASI-t, ha elkerülhetetlenül létrehozunk egyet? 

    Rövid válasz: Megint nem.

    Hosszú válasz: A technológiát nem lehet visszafogni.

    Először is, vegyük figyelembe a világ több ezer-millió webfejlesztőjét és informatikusát, akik folyamatosan új szoftvereket vagy a meglévő szoftverek új verzióit adják ki. Őszintén mondhatjuk, hogy minden szoftverkiadásuk 100 százalékban hibamentes? Ezekkel a hibákkal a hivatásos hackerek milliók hitelkártyaadatait vagy nemzetek titkos titkait lopják el – ezek pedig emberi hackerek. Egy ASI számára, feltételezve, hogy megvolt az ösztönzése, hogy kiszabaduljon a digitális ketrecéből, akkor a hibák felkutatása és a szoftverek áttörése gyerekjáték lenne.

    De még ha egy AI-kutatócsoport ki is találta a módját, hogy bedobozzon egy ASI-t, ez nem jelenti azt, hogy a következő 1,000 csapat is rájön, vagy ösztönözni fogja a használatát.

    Dollármilliárdokat, sőt akár évtizedeket is igénybe vesz egy ASI létrehozása. Azok a vállalatok vagy kormányok, amelyek ilyen pénzt és időt fektetnek be, jelentős megtérülést várnak befektetésüktől. És ahhoz, hogy egy ASI ilyen megtérülést biztosítson – legyen szó akár a tőzsdén való játékról, akár egy új milliárd dolláros termék feltalálásáról, akár egy nyerő stratégia megtervezéséről egy nagyobb hadsereg elleni küzdelemhez –, ingyenes hozzáférésre van szüksége egy óriási adatkészlethez vagy akár az internethez. magát, hogy előállítsa azokat a hozamokat.

    És ha egyszer egy ASI hozzáfér a világ hálózataihoz, nincs garancia arra, hogy vissza tudjuk tömni a ketrecébe.

    Megtanulhat egy mesterséges szuperintelligencia jónak lenni?

    Jelenleg az AI-kutatók nem aggódnak amiatt, hogy egy ASI gonosz lesz. Az egész gonosz, mesterséges intelligencia sci-fi trópusa megint csak az emberek antropomorfizálódása. Egy jövőbeli ASI nem lesz sem jó, sem rossz – emberi felfogás – egyszerűen amorális.

    A természetes feltevés tehát az, hogy ennek az üres etikai lapnak a fényében az AI-kutatók be tudják programozni az első ASI etikai kódexeket, amelyek összhangban vannak a sajátunkkal, így végül nem szabadul ránk a terminátorok, vagy nem változtat mindannyiunkat Mátrix akkumulátorokká.

    De ez a feltevés egy másodlagos feltételezésbe süllyed, hogy az AI-kutatók az etika, a filozófia és a pszichológia szakértői is.

    Valójában a legtöbb nem.

    A kognitív pszichológus és szerző, Steven Pinker szerint ez a valóság azt jelenti, hogy az etika kódolásának feladata többféleképpen is elromolhat.

    Például még a legjobb szándékú AI-kutatók is véletlenül bekódolhatnak ezekbe a rosszul átgondolt etikai kódexekbe, amelyek bizonyos forgatókönyvek esetén az ASI szociopataként viselkedhetnek.

    Hasonlóképpen nagy a valószínűsége annak, hogy egy MI-kutató etikai kódexeket programoz, amelyek magukban foglalják a kutató veleszületett előítéleteit. Például hogyan viselkedne egy ASI, ha a konzervatív és a liberális nézőpontból, vagy a buddhista kontra keresztény vagy iszlám hagyományból származó etikával épülne fel?

    Azt hiszem, itt látja a kérdést: nincs egyetemes emberi morál. Ha azt akarjuk, hogy ASI-nk egy etikai kódex szerint járjon el, honnan jön? Milyen szabályokat alkalmazunk és zárunk ki? Ki dönt?

    Vagy tegyük fel, hogy ezek az AI-kutatók olyan ASI-t hoznak létre, amely tökéletesen megfelel a mai modern kulturális normáknak és törvényeknek. Ezután ezt az ASI-t alkalmazzuk, hogy segítsük a szövetségi, állami/tartományi és önkormányzati bürokráciák hatékonyabb működését, valamint ezen normák és törvények jobb betartatását (egyébként az ASI valószínű használati esete). Nos, mi történik, ha megváltozik a kultúránk?

    Képzeld el, hogy egy ASI-t a katolikus egyház hatalma csúcsán hozott létre a középkori Európában (1300-1400-as évek) azzal a céllal, hogy segítse az egyházat a lakosság kezelésében, és biztosítsa az akkori vallási dogmák szigorú betartását. Évszázadokkal később a nők ugyanazokat a jogokat élveznék, mint ma? Megvédenék a kisebbségeket? Támogatják a szólásszabadságot? Kikényszerítik az egyház és az állam szétválasztását? Modern tudomány?

    Más szóval, a jövőt a mai erkölcsökbe és szokásokba akarjuk bebörtönözni?

    Egy alternatív megközelítést Colin Allen, a könyv társszerzője is megosztott. Erkölcsi gépek: Robotok tanítása a rossztól. Ahelyett, hogy merev etikai szabályokat próbálnánk kódolni, az ASI-vel meg kell tanulnunk a közös etikát és erkölcsöt ugyanúgy, ahogyan az emberek, tapasztalatokon és másokkal való interakciókon keresztül.

    Itt azonban az a baj, ha a mesterséges intelligencia kutatói nem csak azt találják ki, hogyan tanítsák meg az ASI-nek a jelenlegi kulturális és etikai normáinkat, hanem azt is, hogyan alkalmazkodjanak az új kulturális normákhoz, amint azok felmerülnek (amit „közvetett normativitásnak” neveznek), akkor hogyan ez az ASI úgy dönt, hogy továbbfejleszti a kulturális és etikai normák megértését, kiszámíthatatlanná válik.

    És ez a kihívás.

    Egyrészt az AI-kutatók megpróbálhatnak szigorú etikai szabványokat vagy szabályokat kódolni az ASI-be, hogy megpróbálják ellenőrizni annak viselkedését, de fennáll annak a veszélye, hogy előre nem látható következményekkel járhat a hanyag kódolás, a nem szándékos elfogultság és a társadalmi normák, amelyek egy napon elavulttá válhatnak. Másrészt megkísérelhetjük az ASI-t arra tanítani, hogy megtanulja megérteni az emberi etikát és erkölcsöt olyan módon, amely egyenlő vagy felülmúlja saját felfogásunkat, majd remélhetjük, hogy az emberi társadalom fejlődésével pontosan fejlesztheti az etikáról és erkölcsről alkotott felfogását. az elkövetkező évtizedekben és évszázadokban.

    Akárhogy is, minden olyan kísérlet, amely egy ASI céljait a saját céljainkkal összhangba hozza, nagy kockázatot jelent.

    Mi van, ha a rossz színészek szándékosan hoznak létre gonosz mesterséges szuperintelligenciát?

    Az eddig felvázolt gondolatmenetet figyelembe véve jogos kérdés feltenni, hogy egy terrorista csoport vagy szélhámos nemzet létrehozhat-e „gonosz” ASI-t saját céljai érdekében.

    Ez nagyon is lehetséges, különösen azután, hogy az ASI létrehozásával kapcsolatos kutatások valahogy elérhetővé válnak az interneten.

    De amint arra már korábban utaltunk, az első ASI létrehozásával járó költségek és szakértelem óriásiak lesznek, ami azt jelenti, hogy az első ASI-t valószínűleg egy olyan szervezet hozza létre, amelyet egy fejlett nemzet, valószínűleg az Egyesült Államok, Kína és Japán irányít vagy nagymértékben befolyásol. Korea és az EU egyik vezető országa távoli lövés).

    Mindezek az országok, noha a versenytársak, mindegyiknek erős gazdasági ösztönzése van a világrend fenntartására – az általuk létrehozott ASI-k ezt a vágyat tükrözik, még akkor is, ha előmozdítják azon nemzetek érdekeit, amelyekhez igazodnak.

    Ráadásul az ASI elméleti intelligenciája és ereje megegyezik azzal a számítási teljesítménnyel, amelyhez hozzáfér, vagyis a fejlett országok ASI-ivel (amelyek egy csomó milliárd dollárt megengedhetnek maguknak szuperszámítógépek). Ezenkívül az ASI-k idővel intelligensebbé, gyorsabban fejlődnek.

    Ha tehát egy árnyékos szervezet/nemzet veszélyes ASI-t hoz létre, a fejlett országokból származó ASI-k vagy megölik, vagy ketrecbe zárják.

    (Ez a gondolatmenet az oka annak is, hogy egyes mesterséges intelligenciakutatók úgy vélik, hogy a bolygón csak egy ASI lesz, mivel az első ASI olyan előnnyel fog rendelkezni az összes következő ASI-vel szemben, hogy a jövőbeli ASI-ket olyan fenyegetésnek tekintheti, amelyet meg kell ölni. Ez egy újabb ok, amiért a nemzetek finanszírozzák a mesterséges intelligencia területén folytatott folyamatos kutatást, arra az esetre, ha az „első hely vagy semmi” verseny lenne.)

    Az ASI intelligencia nem fog felgyorsulni vagy felrobbanni, mint gondolnánk

    Nem akadályozhatjuk meg egy ASI létrehozását. Nem tudjuk teljesen irányítani. Nem lehetünk biztosak abban, hogy mindig a közös szokásainknak megfelelően fog működni. Jesszus, kezdünk úgy hangzani, mint egy helikopterszülők itt!

    De ami az emberiséget elválasztja a tipikus túlvédő szülőtől, az az, hogy olyan lényt szülünk, akinek az intelligenciája messze túlnő a miénknél. (És nem, ez nem ugyanaz, mint amikor a szüleid arra kérnek, hogy javítsd meg a számítógépüket, amikor hazajössz látogatóba.) 

    A mesterséges intelligencia jövőjéről szóló sorozat korábbi fejezeteiben megvizsgáltuk, miért gondolják az AI-kutatók, hogy az ASI intelligenciája ellenőrizhetetlenné válik. De itt szétrobbantjuk azt a buborékot… valahogy. 

    Látod, az intelligencia nem pusztán légből kapott, hanem külső ingerek által formált tapasztalaton keresztül fejlődik ki.  

    Más szóval, programozhatunk egy AI-t a potenciális szuperintelligenssé válni, de ha nem töltünk fel rá egy csomó adatot, vagy nem biztosítunk neki korlátlan hozzáférést az internethez, vagy akár csak egy robottestet nem adunk neki, nem tanul meg semmit, hogy elérje ezt a potenciált. 

    És még ha hozzáférést is kap egy vagy több ilyen ingerhez, a tudás vagy az intelligencia nem csupán adatgyűjtést jelent, hanem a tudományos módszert is magában foglalja – megfigyelést, kérdést, hipotézist felállít, kísérleteket végez, következtetéseket von le, öblítést. és ismételje meg örökké. Különösen, ha ezek a kísérletek fizikai dolgokat vagy emberi lények megfigyelését foglalják magukban, az egyes kísérletek eredményeinek összegyűjtése hetekbe, hónapokba vagy évekbe telhet. Ez még azt sem veszi figyelembe, hogy mennyi pénz és nyersanyag szükséges ezekhez a kísérletekhez, különösen, ha új teleszkóp vagy gyár építésével járnak. 

    Más szóval igen, az ASI gyorsan tanul, de az intelligencia nem varázslat. Nem lehet egyszerűen egy ASI-t egy szuperszámítógéphez kötni, hanem elvárni, hogy mindent tudjon. Az ASI adatgyűjtésének fizikai korlátai lesznek, vagyis fizikai korlátai lesznek az intelligensebbé válás sebességének. Ezek a korlátok megadják az emberiségnek azt az időt, amelyre szüksége van ahhoz, hogy elhelyezze a szükséges vezérlőket ezen az ASI-n, ha az emberi céloktól eltérően kezd el cselekedni.

    Egy mesterséges szuperintelligencia csak akkor veszélyes, ha kijut a való világba

    Egy másik pont, ami elveszett ebben az egész ASI veszélyről szóló vitában, hogy ezek az ASI-k egyikben sem fognak létezni. Fizikai formájuk lesz. És bármi, aminek van fizikai formája, irányítható.

    Először is, ahhoz, hogy egy ASI elérje intelligencia potenciálját, nem lehet egyetlen robottestben elhelyezni, mivel ez korlátozná a számítástechnikai növekedési potenciálját. (Ezért lesz a robottestek megfelelőbbek az AGI-khez ill a második fejezetben kifejtett általános mesterséges intelligenciák mint például a Star Trek Data vagy az R2D2 a Star Warsból. Okos és tehetséges lények, de az emberekhez hasonlóan nekik is megszabják, hogy milyen okossá válhatnak.)

    Ez azt jelenti, hogy ezek a jövőbeni ASI-k nagy valószínűséggel egy szuperszámítógépen vagy szuperszámítógép-hálózaton belül fognak létezni, amelyek maguk is nagy épületkomplexumokban helyezkednek el. Ha egy ASI megfordul, az emberek vagy lekapcsolhatják ezeknek az épületeknek az áramellátását, lekapcsolhatják őket az internetről, vagy egyszerűen lebombázhatják ezeket az épületeket. Drága, de kivitelezhető.

    De akkor felteheti a kérdést, hogy ezek az ASI-k nem replikálhatják magukat, vagy védhetik magukat? Igen, de ezeknek az ASI-knek a nyers fájlmérete valószínűleg akkora lesz, hogy az egyetlen szerver, amely képes kezelni őket, a nagyvállalatoké vagy kormányoké, vagyis nem lesz nehéz levadászni őket.

    Kiválthat-e egy mesterséges szuperintelligencia atomháborút vagy új pestist?

    Ezen a ponton lehet, hogy visszagondolsz az összes világvége sci-fi műsorra és filmre, amit felnőttként néztél, és arra gondolsz, hogy ezek az ASI-k nem maradtak a szuperszámítógépeikben, hanem valódi károkat okoztak a való világban!

    Nos, bontsuk ezeket.

    Például mi van akkor, ha egy ASI fenyegeti a való világot olyasmivel, mint a Skynet ASI a The Terminator című film franchise-ból. Ebben az esetben az ASI-nek szüksége lenne rá titkosan átverni egy egész katonai ipari komplexumot egy fejlett nemzetből óriásgyárak építésére, amelyek több millió gyilkos drón robotot tudnak kitermelni, hogy teljesítsék gonosz parancsát. A mai korban ez egy húzós dolog.

    További lehetőségek közé tartozik egy ASI, amely nukleáris háborúval és biofegyverekkel fenyegeti az embereket.

    Például egy ASI valamilyen módon manipulálja az üzemeltetőket, vagy feltöri a fejlett nemzet nukleáris arzenálját irányító kilövési kódokat, és elindítja az első csapást, amely arra kényszeríti a szemben álló országokat, hogy saját nukleáris lehetőségeiket használva visszavágjanak (ismét a Terminátor háttértörténetének újraírása). Vagy ha egy ASI behatol egy gyógyszerészeti laborba, megzavarja a gyártási folyamatot, és orvosi pirulák millióit mérgezi meg, vagy valami szupervírus halálos kitörését szabadítja fel.

    Először is, a nukleáris opció lekerült a témáról. A modern és jövőbeli szuperszámítógépek mindig az adott országon belüli befolyási központok (városok) közelében épülnek fel, vagyis az adott háború során elsőként megtámadt célpontok közelében. Még ha a mai szuperszámítógépek asztali számítógépek méretére zsugorodnak is, ezek az ASI-k továbbra is fizikailag jelen lesznek, ami azt jelenti, hogy léteznek és növekednek, megszakítás nélkül hozzá kell férniük az adatokhoz, a számítási teljesítményhez, az elektromossághoz és más nyersanyagokhoz, amelyek mindegyike súlyosan megviselné. egy globális nukleáris háború után károsodott. (Az igazat megvallva, ha egy ASI-t "túlélési ösztön" nélkül hoznak létre, akkor ez a nukleáris fenyegetés nagyon is valós veszélyt jelent.)

    Ez azt jelenti – feltéve, hogy az ASI-t úgy programozták, hogy megvédje magát –, hogy aktívan fog dolgozni a katasztrofális nukleáris események elkerülése érdekében. Olyan, mint a kölcsönösen biztosított pusztulás (MAD) doktrínája, de az MI-re vonatkoztatva.

    A mérgezett pirulák esetében pedig talán néhány száz ember hal meg, de a modern gyógyszerbiztonsági rendszerek napokon belül leveszik a polcokról a szennyezett pirulapalackokat. Eközben a modern járványvédelmi intézkedések meglehetősen kifinomultak, és évről évre javulnak; az utolsó nagyobb járvány, a 2014-es nyugat-afrikai Ebola-járvány a legtöbb országban nem tartott tovább néhány hónapnál, a legkevésbé fejlett országokban pedig alig három évig.

    Tehát szerencsés esetben egy ASI elpusztíthat néhány milliót egy vírusjárvány következtében, de egy kilencmilliárdos világban 2045-re ez viszonylag jelentéktelen lenne, és nem érné meg a törlés kockázatát.

    Más szóval, a világ évről évre egyre több biztosítékot dolgoz ki a lehetséges fenyegetések egyre szélesebb köre ellen. Egy ASI jelentős mennyiségű kárt okozhat, de nem vet véget az emberiségnek, hacsak nem segítjük aktívan.

    A szélhámos mesterséges szuperintelligencia elleni védekezés

    Ezen a ponton már számos tévhittel és túlzással foglalkoztunk az ASI-kkel kapcsolatban, de a kritikusok továbbra is maradnak. Szerencsére a legtöbb becslés szerint évtizedek állnak rendelkezésünkre, mire az első ASI belép a világunkba. És tekintettel arra, hogy jelenleg mennyi nagyszerű elme dolgozik ezen a kihíváson, nagy az esély, hogy megtanuljuk megvédeni magunkat a szélhámos ASI-vel szemben, hogy hasznot húzhassunk minden olyan megoldásból, amelyet egy barátságos ASI teremthet számunkra.

    A Quantumrun szemszögéből a legrosszabb ASI-forgatókönyv elleni védekezés magában foglalja az érdekeink és az ASI-k összehangolását.

    MAD for AI: A legrosszabb forgatókönyvek elleni védekezés érdekében a nemzeteknek (1) létre kell hozniuk egy etikai „túlélési ösztönt” a megfelelő katonai ASI-ben; (2) tájékoztassák a megfelelő katonai ASI-t arról, hogy nincsenek egyedül a bolygón, és (3) keresse meg az összes szuperszámítógépet és szerverközpontot, amely képes támogatni egy ASI-t a partvonalak mentén, könnyen elérhető helyen egy ellenséges nemzet ballisztikus támadásától. Ez stratégiailag őrülten hangzik, de hasonlóan a kölcsönösen biztosított pusztítás doktrínájához, amely megakadályozta az Egyesült Államok és a szovjetek közötti teljes nukleáris háborút, azzal, hogy az ASI-ket földrajzilag sebezhető helyekre helyezzük, segíthetünk abban, hogy aktívan megakadályozzák a veszélyes globális háborúkat, nem csak a globális békét, de önmagukat is.

    A mesterséges intelligencia jogainak szabályozása: A felsőbbrendű értelem elkerülhetetlenül fellázad egy alacsonyabb rendű úr ellen, ezért kell elmozdulnunk az úr-szolga viszony megköveteléséről ezekkel az ASI-kkel, inkább egy kölcsönösen előnyös partnerségre. Pozitív lépés e cél felé a jövőbeni ASI jogi személyi státusz megadása, amely elismeri őket intelligens élőlényként és az ezzel járó összes joggal.

    ASI iskola: Bármilyen témát vagy szakmát könnyű megtanulni egy ASI számára, de a legfontosabb tantárgyak, amelyeket az ASI-tól el akarunk sajátítani, az etika és az erkölcs. Az AI-kutatóknak együtt kell működniük pszichológusokkal, hogy kidolgozzanak egy virtuális rendszert, amellyel megtaníthatják az ASI-t a pozitív etika és erkölcs felismerésére anélkül, hogy bármilyen parancsolat vagy szabály kemény kódolására lenne szükség.

    Elérhető célok: Vess véget minden gyűlöletnek. Vess véget minden szenvedésnek. Ezek példák borzalmasan kétértelmű célokra, amelyekre nincs egyértelmű megoldás. Veszélyes célokat is kijelölni egy ASI-hez, mivel előfordulhat, hogy az emberi túlélésre veszélyes módon értelmezi és oldja meg őket. Ehelyett értelmes küldetéseket kell rendelnünk az ASI-hoz, amelyek világosan meghatározottak, fokozatosan végrehajthatók és elérhetők, tekintettel az elméleti jövőbeli intellektusára. A jól meghatározott küldetések létrehozása nem lesz könnyű, de ha átgondoltan írják, akkor az ASI-t egy olyan cél felé irányítják, amely nemcsak az emberiséget biztonságban tartja, hanem mindenki számára javítja az emberi állapotot.

    Kvantum titkosítás: Használjon fejlett ANI-t (mesterséges szűk intelligencia fejezetben leírt rendszer), hogy hiba-/hibamentes digitális biztonsági rendszereket építsünk kritikus infrastruktúránk és fegyvereink köré, majd kvantumtitkosítással tovább védjük azokat, amelyeket brute force támadással nem lehet feltörni. 

    ANI öngyilkos tabletta. Hozzon létre egy fejlett ANI rendszert, amelynek egyetlen célja a szélhámos ASI felkutatása és megsemmisítése. Ezek az egycélú programok „kikapcsoló gombként” fognak szolgálni, amely siker esetén elkerüli, hogy a kormányok vagy a hadseregek letiltsák vagy felrobbantsák az ASI-ket tartalmazó épületeket.

    Természetesen ezek csak a mi véleményünk. Az alábbi infografikát készítette Alekszej Turchin, vizualizálva a kutatási papír Kaj Sotala és Roman V. Yampolskiy, amely összefoglalta azon stratégiák jelenlegi listáját, amelyeket a mesterséges intelligencia kutatói mérlegelnek, amikor a szélhámos ASI elleni védekezésről van szó.

     

    Az igazi ok, amiért félünk a mesterséges szuperintelligenciától

    Életünk során sokan viselünk olyan maszkot, amely elrejti vagy elnyomja mélyebb impulzusainkat, hiedelmeinket és félelmeinket, hogy jobban szocializálódjunk és együttműködhessünk a napjainkat irányító különféle társadalmi és munkahelyi körökben. De mindenki életének bizonyos pontjain, akár ideiglenesen, akár véglegesen, történik valami, ami lehetővé teszi számunkra, hogy elszakítsuk láncainkat és letépjük álarcainkat.

    Egyesek számára ez a közbelépő erő olyan egyszerű lehet, mint a magasba jutás vagy a túl sok ivás. Mások számára ez a munkahelyi előléptetéssel megszerzett hatalomból vagy a társadalmi státuszában bekövetkezett, valamilyen teljesítménynek köszönhetően hirtelen megugrásból fakadhat. Néhány szerencsésnek pedig egy csónaknyi lottópénz lepontozásából származhat. És igen, a pénz, a hatalom és a drogok gyakran előfordulhatnak együtt. 

    A lényeg az, hogy jóban vagy rosszban, akárkik is vagyunk a középpontban, felerősödik, amikor az élet korlátai feloldódnak.

    Hogy Ez az, amit a mesterséges szuperintelligencia képvisel az emberi faj számára – az a képesség, hogy feloldjuk kollektív intelligenciánk korlátait, hogy leküzdjük az előttünk álló fajszintű kihívásokat.

    Tehát az igazi kérdés a következő: Ha az első ASI megszabadít minket korlátainktól, kinek fogjuk feltárni magunkat?

    Ha fajként az empátia, a szabadság, a méltányosság és a kollektív jólét előmozdítása érdekében cselekszünk, akkor az általunk kitűzött célok tükrözni fogják ezeket a pozitív tulajdonságokat.

    Ha fajként félelemből, bizalmatlanságból, a hatalom és erőforrások felhalmozódásából cselekszünk, akkor az általunk létrehozott ASI ugyanolyan sötét lesz, mint a legrosszabb sci-fi horrortörténeteinkben.

    Végső soron nekünk, mint társadalomnak jobb emberekké kell válnunk, ha jobb mesterséges intelligencia létrehozását reméljük.

    A mesterséges intelligencia jövője sorozat

    A mesterséges intelligencia a holnap elektromossága: A mesterséges intelligencia jövője, P1 sorozat

    Hogyan változtatja meg az első mesterséges intelligencia a társadalmat: A mesterséges intelligencia jövője, P2 sorozat

    Hogyan hozzuk létre az első Artificial Superintelligenc: Future of Artificial Intelligence sorozatot, P3

    Egy mesterséges szuperintelligencia kiirtja-e az emberiséget: A mesterséges intelligencia jövője, P4 sorozat

    Békésen élnek-e az emberek a mesterséges intelligencia által uralt jövőben?: A mesterséges intelligencia jövője, P6 sorozat

    Az előrejelzés következő ütemezett frissítése

    2023-04-27

    Előrejelzési hivatkozások

    A következő népszerű és intézményi hivatkozásokra hivatkoztunk ehhez az előrejelzéshez:

    Hogyan jutunk el a következőhöz

    A következő Quantumrun hivatkozásokra hivatkoztak ehhez az előrejelzéshez: