Kuinka ihmiset puolustautuvat tekoälyä vastaan: tekoälyn tulevaisuus P5

KUVAKrediitti: Quantumrun

Kuinka ihmiset puolustautuvat tekoälyä vastaan: tekoälyn tulevaisuus P5

    Vuosi on 65,000 XNUMX eaa., ja kuten a thylacoleo, sinä ja ystäväsi olitte muinaisen Australian suuria metsästäjiä. Vaeltelit maassa vapaasti ja elit tasapainossa muiden saaliseläinten ja saaliiden kanssa, jotka miehittivät maan rinnallasi. Vuodenajat toivat muutosta, mutta asemasi eläinkunnassa pysyi kiistatta niin kauan kuin sinä ja esi-isäsi saatoitte muistaa. Sitten eräänä päivänä uusia tulokkaita ilmestyi.

    Huhujen mukaan he saapuivat jättimäiseltä vesimuurilta, mutta nämä olennot vaikuttivat mukavammalta elää maalla. Sinun piti nähdä nämä olennot itse.

    Kesti muutaman päivän, mutta pääsit vihdoin rannikolle. Tuli taivaalla oli sammumassa, täydellinen aika vakoilla näitä olentoja, ehkä jopa yrittää syödä yksi nähdäksesi miltä ne maistuvat.

    Huomaat yhden.

    Se käveli kahdella jalalla eikä siinä ollut turkkia. Se näytti heikolta. Vaikuttava. Tuskin sen pelon arvoinen, jonka se aiheutti valtakunnan keskuudessa.

    Alat lähestyä varovasti, kun yö karkaa valon. Olet tulossa lähemmäksi. Sitten jäädyt. Kovia ääniä kuuluu, ja sitten sen takaa ilmestyy metsästä neljä muuta. Kuinka monta siellä on?

    Olento seuraa muita puurajaan, ja sinä seuraat. Ja mitä enemmän teet, sitä enemmän outoja ääniä kuulet, kunnes huomaat vielä enemmän näitä olentoja. Seuraat kaukaa, kun he poistuvat metsästä rannan tuntumaan. Niitä on paljon. Mutta mikä tärkeintä, he kaikki istuvat rauhallisesti tulen ympärillä.

    Olet nähnyt nämä tulipalot ennenkin. Kuumana vuodenaikana taivaalla oleva tuli vieraili joskus maassa ja poltti kokonaisia ​​metsiä. Toisaalta nämä olennot kontrolloivat sitä jotenkin. Millaisilla olennoilla voi olla tällainen voima?

    Katsot kaukaisuuteen. Lisää tulee jättimäisen vesimuurin yli.

    Otat askeleen taaksepäin.

    Nämä olennot eivät ole samanlaisia ​​kuin muut valtakunnassa. Ne ovat jotain aivan uutta.

    Päätät lähteä ja varoittaa sukulaisiasi. Jos heidän lukumääränsä kasvaa liian suureksi, kuka tietää, mitä voi tapahtua.

    ***

    Uskotaan, että Thylacoleo kuoli sukupuuttoon suhteellisen lyhyen ajan kuluttua ihmisten saapumisesta, samoin kuin suurin osa muista Australian mantereen megafaunoista. Mikään muu huippunisäkäspetoeläin ei tullut tilalle – toisin sanoen, ellei ihmisiä lasketa tähän luokkaan.

    Tämän allegorian leikkaaminen on tämän sarjan luvun keskiössä: Muuttaako tuleva tekosuperäly (ASI) meistä kaikki paristot ja liittää meidät sitten Matrixiin vai keksivätkö ihmiset tavan välttää joutumasta scifin uhriksi? AI tuomiopäivän juoni?

    Toistaiseksi sarjassamme Tekoälyn tulevaisuus, olemme tutkineet kaikenlaisia ​​tekoälyjä, mukaan lukien tietyn tekoälymuodon, ASI:n, positiiviset mahdollisuudet: keinotekoinen olento, jonka tuleva älykkyys saa meidät näyttämään muurahaisilta.

    Mutta kuka väittää, että näin älykäs olento hyväksyisi ihmisten käskyjen vastaanottamisen ikuisesti. Mitä teemme, jos asiat menevät etelään? Kuinka puolustaudumme roisto-ASI:tä vastaan?

    Tässä luvussa leikkaamme läpi väärän hypetyksen – ainakin siltä osin kuin se liittyy "ihmisten sukupuuttotason" vaaroihin - ja keskitymme maailman hallitusten käytettävissä oleviin realistisiin itsepuolustusvaihtoehtoihin.

    Voimmeko lopettaa kaiken lisätutkimuksen keinotekoisesta superälystä?

    Ottaen huomioon mahdolliset riskit, joita ASI voi aiheuttaa ihmiskunnalle, ensimmäinen ilmeinen kysymys, joka on kysyttävä, on: Emmekö voi lopettaa kaikkea tekoälyn jatkotutkimusta? Tai ainakin kieltää kaikki tutkimus, joka saattaa saada meidät vaarallisen lähelle ASI:n luomista?

    Lyhyt vastaus: ei.

    Pitkä vastaus: Katsotaanpa tässä mukana olevia eri pelaajia.

    Tutkimustasolla on nykyään liian monta tekoälytutkijaa liian monista startupeista, yrityksistä ja yliopistoista ympäri maailmaa. Jos yksi yritys tai maa päättäisi rajoittaa tekoälytutkimustaan, ne vain jatkaisivat muualla.

    Samaan aikaan planeetan arvokkaimmat yritykset ansaitsevat omaisuutensa soveltamalla tekoälyjärjestelmiä tiettyihin yrityksiin. Heidän pyytäminen lopettamaan tai rajoittamaan tekoälytyökalujen kehitystä on samanlaista kuin pyytää heitä lopettamaan tai rajoittamaan tulevaa kasvuaan. Taloudellisesti tämä uhkaisi heidän pitkän aikavälin liiketoimintaansa. Juridisesti yrityksillä on fidusiaarinen vastuu rakentaa jatkuvasti arvoa sidosryhmilleen; tämä tarkoittaa, että kaikki toimet, jotka rajoittaisivat kyseisen arvon kasvua, voivat johtaa oikeudenkäyntiin. Ja jos joku poliitikko yrittäisi rajoittaa tekoälytutkimusta, nämä jättiläisyritykset vain maksaisivat tarvittavat lobbausmaksut muuttaakseen mieltään tai kollegoidensa mieltä.

    Taistelussa, aivan kuten terroristit ja vapaustaistelijat ympäri maailmaa ovat käyttäneet sissitaktiikkaa taistellakseen paremmin rahoitettuja armeijaa vastaan, pienemmät kansakunnat saavat kannustimen käyttää tekoälyä samanlaisena taktisena etuna suurempia valtioita vastaan, joilla voi olla useita sotilaallisia etuja. Samoin huippuarmeijalle, kuten Yhdysvaltoihin, Venäjälle ja Kiinaan kuuluville, sotilaallisen ASI:n rakentaminen vastaa ydinaseiden arsenaalia takataskussa. Toisin sanoen kaikki armeijat jatkavat tekoälyn rahoittamista vain pysyäkseen merkityksellisinä tulevaisuudessa.

    Entä hallitukset? Totta puhuen useimmat poliitikot nykyään (2018) ovat teknisesti lukutaidottomia ja heillä on vain vähän ymmärrystä tekoälystä tai sen tulevaisuuden mahdollisuuksista – tämä tekee niistä helposti manipuloitavissa yritysten etujen avulla.

    Ja globaalilla tasolla pohditaan, kuinka vaikeaa oli saada maailmanhallitukset allekirjoittamaan 2015 Pariisin sopimuksen ilmastonmuutoksen torjumiseksi – ja kun ne oli allekirjoitettu, monet velvoitteet eivät olleet edes sitovia. Sen lisäksi, että ilmastonmuutos on ongelma, jota ihmiset kokevat fyysisesti maailmanlaajuisesti yhä useammin toistuvien ja ankarien sääilmiöiden vuoksi. Kun nyt puhutaan tekoälyn rajoitusten hyväksymisestä, tämä on ongelma, joka on suurelta osin näkymätön ja tuskin ymmärrettävä yleisölle, joten onnea pääsystä mihin tahansa "Pariisin sopimukseen" tekoälyn rajoittamiseksi.

    Toisin sanoen on aivan liian monia kiinnostuksen kohteita, jotka tutkivat tekoälyä omiin tarkoituksiinsa, jotta ne voivat lopettaa kaiken tutkimuksen, joka voi lopulta johtaa ASI:hen. 

    Voimmeko häkkiin keinotekoisen superälyn?

    Seuraava järkevä kysymys on, voimmeko häkkiin tai hallita ASI:tä, kun olemme väistämättä luoneet sellaisen? 

    Lyhyt vastaus: Jälleen, ei.

    Pitkä vastaus: Teknologiaa ei voi hillitä.

    Ensinnäkin, ajattele vain niitä tuhansia tai miljoonia verkkokehittäjiä ja tietojenkäsittelytieteilijöitä maailmassa, jotka julkaisevat jatkuvasti uusia ohjelmistoja tai uusia versioita olemassa olevista ohjelmistoista. Voimmeko rehellisesti sanoa, että jokainen heidän ohjelmistojulkaisunsa on 100-prosenttisesti virheetön? Näitä vikoja ammattihakkerit käyttävät varastaakseen miljoonien luottokorttitietoja tai kansojen salaisuuksia – ja nämä ovat ihmishakkereita. ASI:lle, jos sillä olisi kannustin paeta digitaalisesta häkistä, virheiden löytäminen ja ohjelmistojen läpimurto olisi helppoa.

    Mutta vaikka tekoälytutkimusryhmä keksisikin tavan laittaa ASI:lle, se ei tarkoita, että myös seuraavat 1,000 XNUMX tiimiä selvittäisivät sen tai että heitä kannustetaan käyttämään sitä.

    ASI:n luominen vie miljardeja dollareita ja ehkä jopa vuosikymmeniä. Yritykset tai hallitukset, jotka sijoittavat tällaista rahaa ja aikaa, odottavat merkittävää tuottoa sijoitukselleen. Ja jotta ASI voi tarjota tällaisen tuoton – oli sitten kyse osakemarkkinoiden pelaamisesta tai uuden miljardin dollarin tuotteen keksimisestä tai voittostrategian suunnittelusta taistellakseen suurempaa armeijaa vastaan ​​– se tarvitsee ilmaisen pääsyn jättimäiseen tietosarjaan tai jopa Internetiin. itse tuottamaan nämä tuotot.

    Ja kun ASI pääsee maailman verkkoihin, ei ole takeita siitä, että voimme työntää sen takaisin häkkiinsä.

    Voiko keinotekoinen superäly oppia olemaan hyvä?

    Tällä hetkellä tekoälytutkijat eivät ole huolissaan ASI:n muuttumisesta pahaksi. Koko ilkeä, tekoälyn scifi-trooppi on vain ihmisten antropomorfoimista jälleen. Tuleva ASI ei ole hyvä tai paha – ihmiskäsitykset – yksinkertaisesti moraaliton.

    Luonnollinen oletus on siis, että tämän tyhjän eettisen pöydän perusteella tekoälytutkijat voivat ohjelmoida ensimmäiset ASI:n eettiset koodit, jotka ovat linjassa omien kanssamme, jotta se ei päädy vapauttamaan terminaattoreita meihin tai muuttamaan meistä kaikista Matrix-akkuja.

    Mutta tämä oletus leipoaa toissijaisen oletuksen, että tekoälytutkijat ovat myös etiikan, filosofian ja psykologian asiantuntijoita.

    Itse asiassa useimmat eivät ole.

    Kognitiivisen psykologin ja kirjailijan Steven Pinkerin mukaan tämä todellisuus tarkoittaa, että etiikan koodaustehtävä voi mennä pieleen monin eri tavoin.

    Esimerkiksi jopa parasta tekoälyn tutkijat voivat vahingossa koodata näihin ASI:n huonosti harkittuihin eettisiin koodeihin, jotka tietyissä skenaarioissa voivat saada ASI:n toimimaan sosiopaattina.

    Samoin on yhtä todennäköistä, että tekoälytutkija ohjelmoi eettisiä koodeja, jotka sisältävät tutkijan synnynnäiset ennakkoluulot. Esimerkiksi kuinka ASI käyttäytyisi, jos se olisi rakennettu konservatiivisesta vs. liberaalista näkökulmasta tai buddhalaisen vs. kristillisen tai islamilaisen perinteen pohjalta?

    Luulen, että näet ongelman tässä: ei ole olemassa universaalia ihmismoraalia. Jos haluamme ASI:mme toimivan eettisten sääntöjen mukaisesti, mistä se tulee? Mitä sääntöjä sisällytämme ja suljemme pois? Kuka päättää?

    Tai oletetaan, että nämä tekoälytutkijat luovat ASI:n, joka on täysin sopusoinnussa nykypäivän modernien kulttuuristen normien ja lakien kanssa. Käytämme sitten tätä ASI:ta auttamaan liittovaltion, osavaltion/provinssin ja kuntien byrokratioita toimimaan tehokkaammin ja valvomaan paremmin näitä normeja ja lakeja (todennäköinen ASI:n käyttötapaus). Mitä tapahtuu, kun kulttuurimme muuttuu?

    Kuvittele, että katolinen kirkko loi ASI:n voimansa huipulla keskiaikaisessa Euroopassa (1300-1400-luvulla) tavoitteenaan auttaa kirkkoa hallitsemaan väestöä ja varmistamaan sen ajan uskonnollisen dogman tiukka noudattaminen. Saisivatko naiset vuosisatoja myöhemmin samat oikeudet kuin nykyään? Suojellaanko vähemmistöjä? Edistetäänkö sananvapautta? Toteutetaanko kirkon ja valtion erottaminen toisistaan? Moderni tiede?

    Toisin sanoen, haluammeko vangita tulevaisuuden tämän päivän moraaliin ja tapoihin?

    Vaihtoehtoinen lähestymistapa on kirjan toinen kirjoittaja Colin Allen, Moraalikoneet: Robottien opettaminen oikeasta väärästä. Sen sijaan, että yrittäisimme koodata jäykkiä eettisiä sääntöjä, olemme ASI:n oppimassa yhteistä etiikkaa ja moraalia samalla tavalla kuin ihmiset kokemuksen ja vuorovaikutuksen kautta muiden kanssa.

    Ongelmana tässä on kuitenkin se, että jos tekoälytutkijat keksivät paitsi kuinka opettaa ASI:lle nykyiset kulttuuriset ja eettiset normimme, myös kuinka sopeutua uusiin kulttuurinormeihin niiden ilmaantuessa (jotain "epäsuoraksi normatiivisuudeksi"), niin miten tämä ASI päättää kehittää ymmärrystään kulttuurisista ja eettisistä normeista tulee arvaamattomaksi.

    Ja se on haaste.

    Toisaalta tekoälytutkijat voivat yrittää koodata tiukkoja eettisiä standardeja tai sääntöjä ASI:hen yrittääkseen hallita sen käyttäytymistä, mutta uhkaavat odottamattomat seuraukset huolimattomasta koodauksesta, tahattomasta harhasta ja yhteiskunnallisista normeista, jotka saattavat jonain päivänä vanhentua. Toisaalta voimme yrittää kouluttaa ASI:tä oppimaan ymmärtämään ihmisen etiikkaa ja moraalia tavalla, joka on yhtäläinen tai parempi kuin oma ymmärryksemme, ja sitten toivoa, että se voi kehittää ymmärrystään etiikasta ja moraalista tarkasti ihmisyhteiskunnan edetessä. eteenpäin tulevina vuosikymmeninä ja vuosisatoina.

    Joka tapauksessa kaikki yritykset kohdistaa ASI:n tavoitteet omiin tavoitteisiimme sisältävät suuren riskin.

    Entä jos huonot näyttelijät luovat tarkoituksella pahaa keinotekoista superälyä?

    Kun otetaan huomioon tähän mennessä hahmoteltu ajatuskulku, on aiheellista kysyä, voiko terroristiryhmä tai roistovaltio luoda "pahan" ASI:n omiin tarkoituksiinsa.

    Tämä on hyvin mahdollista, varsinkin sen jälkeen, kun ASI:n luomiseen liittyvä tutkimus on jollain tavalla saatavilla verkossa.

    Mutta kuten aiemmin vihjattiin, ensimmäisen ASI:n luomiseen liittyvät kustannukset ja asiantuntemus ovat valtavia, mikä tarkoittaa, että ensimmäisen ASI:n luo todennäköisesti organisaatio, jota hallitsee kehittynyt kansakunta, todennäköisesti Yhdysvallat, Kiina ja Japani, tai johon on vahva vaikutus. Korea ja yksi johtavista EU-maista ovat kaukaa).

    Kaikilla näillä mailla, vaikka ne kilpailevatkin, jokaisella on vahva taloudellinen kannustin ylläpitää maailmanjärjestystä – niiden luomat ASI-järjestöt heijastavat tätä toivetta, vaikka ne edistävätkin niiden kansojen etuja, joiden kanssa ne ovat yhtyneet.

    Tämän lisäksi ASI:n teoreettinen älykkyys ja teho on yhtä suuri kuin laskentateho, johon se saa pääsyn, eli kehittyneiden maiden ASI:t (joilla on varaa miljardiin dollariin). supertietokoneet) on valtava etu verrattuna pienempien maiden ASI:ihin tai itsenäisiin rikollisryhmiin. Lisäksi ASI:t kasvavat älykkäämmiksi, nopeammin ajan myötä.

    Joten, kun otetaan huomioon tämä etumatka yhdistettynä parempaan raakaan laskentatehoon, jos hämärä organisaatio/kansa luo vaarallisen ASI:n, kehittyneiden maiden ASI:t joko tappavat sen tai sulkevat sen häkkiin.

    (Tämä ajattelutapa on myös syy siihen, miksi jotkut tekoälytutkijat uskovat, että planeetalla tulee koskaan olemaan vain yksi ASI, koska ensimmäisellä ASI:lla on niin etumatka kaikkiin seuraaviin ASI:ihin, että se saattaa nähdä tulevat ASI:t uhkana, joka voidaan tappaa. Tämä on jälleen yksi syy, miksi maat rahoittavat jatkuvaa tekoälytutkimusta siltä varalta, että siitä tulee "ensimmäinen paikka tai ei mitään" -kilpailu.)

    ASI-äly ei kiihdy tai räjähdy, kuten luulemme

    Emme voi estää ASI:n luomista. Emme voi hallita sitä kokonaan. Emme voi olla varmoja, että se toimii aina yhteisten tapojemme mukaisesti. Jestas, me alamme kuulostaa helikopterivanhemmilta täällä!

    Mutta se, mikä erottaa ihmiskunnan tyypillisestä ylisuojelevasta vanhemmastasi, on se, että synnytämme olennon, jonka älykkyys kasvaa valtavasti meidän omamme yläpuolelle. (Ja ei, se ei ole sama asia kuin silloin, kun vanhempasi pyytävät sinua korjaamaan tietokoneensa aina kun tulet kotiin käymään.) 

    Tämän tulevaisuuden tekoälysarjan aiemmissa luvuissa tutkimme, miksi tekoälytutkijat ajattelevat, että ASI:n älykkyys kasvaa hallitsemattomasti. Mutta tässä me räjäytetään se kupla… tavallaan. 

    Näettekö, älykkyys ei vain luo itseään tyhjästä, se kehittyy ulkopuolisten ärsykkeiden muovaaman kokemuksen kautta.  

    Toisin sanoen voimme ohjelmoida tekoälyn kanssa mahdollinen tulla superälykkääksi, mutta ellemme lataa siihen tonnia tietoa tai anna sille rajoittamatonta pääsyä Internetiin tai edes anna sille robottirunkoa, se ei opi mitään saavuttaakseen tämän potentiaalin. 

    Ja vaikka se pääsee käsiksi yhteen tai useampaan näistä ärsykkeistä, tiedosta tai älykkyydestä on muutakin kuin vain tiedon keräämistä, se sisältää tieteellisen menetelmän – havainnon, kysymyksen, hypoteesin, kokeiden suorittamisen, johtopäätöksen tekemisen, huuhtelun. ja toistaa ikuisesti. Varsinkin jos nämä kokeet koskevat fyysisiä asioita tai ihmisten tarkkailua, kunkin kokeen tulosten kerääminen voi kestää viikkoja, kuukausia tai vuosia. Tässä ei edes oteta huomioon näiden kokeiden suorittamiseen tarvittavia rahoja ja raaka-aineita, varsinkin jos niihin liittyy uuden teleskoopin tai tehtaan rakentaminen. 

    Toisin sanoen kyllä, ASI oppii nopeasti, mutta älykkyys ei ole taikuutta. Et voi vain liittää ASI:tä supertietokoneeseen, vaan odottaa sen olevan kaikkitietävä. ASI:n tiedonhankinnassa on fyysisiä rajoitteita, mikä tarkoittaa, että sen älykkäämmäksi kasvamisen nopeuteen liittyy fyysisiä rajoituksia. Nämä rajoitukset antavat ihmiskunnalle aikaa asettaa tarvittavat hallintalaitteet tälle ASI:lle, jos se alkaa toimia vastoin inhimillisiä tavoitteita.

    Keinotekoinen superäly on vaarallinen vain, jos se pääsee todelliseen maailmaan

    Toinen seikka, joka on menetetty tässä koko ASI-vaarakeskustelussa, on se, että näitä ASI:itä ei ole olemassa kummassakaan. Heillä on fyysinen muoto. Ja kaikkea, jolla on fyysinen muoto, voidaan hallita.

    Ensinnäkin, jotta ASI saavuttaisi älykkyyspotentiaalinsa, sitä ei voida sijoittaa yhteen robottirunkoon, koska tämä runko rajoittaisi sen tietojenkäsittelyn kasvupotentiaalia. (Tästä syystä robottirungot sopivat paremmin AGI:ille tai luvussa kaksi selitetyt yleiset tekoälyt tämän sarjan, kuten Data Star Trekistä tai R2D2 Star Warsista. Älykkäitä ja kykeneviä olentoja, mutta ihmisilläkin heillä on rajansa älykkyydelle.)

    Tämä tarkoittaa, että nämä tulevat ASI:t ovat todennäköisesti olemassa supertietokoneissa tai supertietokoneiden verkostossa, jotka itse sijaitsevat suurissa rakennuskomplekseissa. Jos ASI kääntyy, ihmiset voivat joko katkaista virran näistä rakennuksista, katkaista ne Internetistä tai vain pommittaa näitä rakennuksia. Kallista, mutta toteutettavissa.

    Mutta sitten saatat kysyä, eivätkö nämä ASI:t voi kopioida itseään tai varmuuskopioida itseään? Kyllä, mutta näiden ASI:iden raakatiedostokoko on todennäköisesti niin suuri, että ainoat palvelimet, jotka voivat käsitellä niitä, kuuluvat suurille yrityksille tai hallituksille, joten niitä ei ole vaikea löytää.

    Voiko keinotekoinen superäly aiheuttaa ydinsodan tai uuden ruton?

    Tässä vaiheessa saatat ajatella kaikkia tuomiopäivän scifi-sarjoja ja elokuvia, joita katsoit aikuisena, ja ajatella, että nämä ASI:t eivät jääneet supertietokoneisiinsa, vaan ne tekivät todellista vahinkoa todellisessa maailmassa!

    No, puretaan nämä.

    Entä jos esimerkiksi ASI uhkaa todellista maailmaa muuttumalla joksikin Skynet ASI:ksi The Terminator -elokuvasarjasta. Tässä tapauksessa ASI tarvitsee salaa huijata kokonainen sotilaallinen teollisuuskompleksi kehittyneestä kansakunnasta jättiläismäisten tehtaiden rakentamiseen, jotka voivat valmistaa miljoonia tappajadroone-robotteja tehdäkseen pahan tehtävänsä. Nykyaikana se on joustoa.

    Muita mahdollisuuksia ovat ASI, joka uhkaa ihmisiä ydinsodalla ja bioaseilla.

    Esimerkiksi ASI jollakin tavalla manipuloi operaattoreita tai murtautuu edistyneen maan ydinarsenaalia ohjaaviin laukaisukoodeihin ja laukaisee ensimmäisen iskun, joka pakottaa vastustavat maat iskemään takaisin omilla ydinvaihtoehdoillaan (taas kerran, terminaattorin taustatarina). Tai jos ASI murtautuu lääkelaboratorioon, peukaloi valmistusprosessia ja myrkyttää miljoonia lääkepillereitä tai vapauttaa tappavan superviruksen.

    Ensinnäkin ydinvoimavaihtoehto on pois levyltä. Nykyaikaiset ja tulevat supertietokoneet rakennetaan aina lähelle tietyn maan vaikutuskeskuksia (kaupunkeja), eli ensimmäisiä kohteita, joita vastaan ​​hyökätään tietyn sodan aikana. Vaikka nykypäivän supertietokoneet pienenevät pöytäkoneiden kokoisiksi, näillä ASI:illä on edelleen fyysinen läsnäolo, mikä tarkoittaa olemassaoloa ja kasvua, ja ne tarvitsevat jatkuvan pääsyn dataan, laskentatehoon, sähköön ja muihin raaka-aineisiin, mikä kaikki olisi vakavaa. heikentynyt maailmanlaajuisen ydinsodan jälkeen. (Ollakseni rehellinen, jos ASI luodaan ilman "selviytymisvaistoa", tämä ydinuhka on erittäin todellinen vaara.)

    Tämä tarkoittaa – olettaen jälleen, että ASI on ohjelmoitu suojelemaan itseään – että se pyrkii aktiivisesti välttämään kaikki katastrofaaliset ydinonnettomuudet. Vähän kuin MAD-doktriini, mutta sitä sovellettiin tekoälyyn.

    Ja myrkytettyjen pillereiden tapauksessa ehkä muutama sata ihmistä kuolee, mutta nykyaikaiset lääketurvajärjestelmät näkevät pilaantuneiden pilleripullojen poistuvan hyllyiltä muutamassa päivässä. Samaan aikaan nykyaikaiset epidemiantorjuntatoimenpiteet ovat melko kehittyneitä ja paranevat vuosi vuodelta; viimeisin suuri epidemia, vuoden 2014 Länsi-Afrikan Ebola-epidemia, kesti vain muutaman kuukauden useimmissa maissa ja vajaat kolme vuotta vähiten kehittyneissä maissa.

    Joten jos se on onnekas, ASI voi pyyhkiä pois muutaman miljoonan virusepidemian avulla, mutta yhdeksän miljardin maailmassa vuoteen 2045 mennessä se olisi suhteellisen merkityksetöntä, eikä sen poistamisen arvoinen riski.

    Toisin sanoen, vuosi vuodelta maailma kehittää yhä enemmän suojakeinoja yhä laajempaa mahdollisia uhkia vastaan. ASI voi tehdä huomattavan määrän vahinkoa, mutta se ei lopeta ihmiskuntaa, ellemme auta sitä aktiivisesti tekemään niin.

    Puolustaminen rikollista keinotekoista superälyä vastaan

    Tässä vaiheessa olemme käsitelleet monia väärinkäsityksiä ja liioittelua ASI:stä, mutta kriitikot jäävät silti. Onneksi useimpien arvioiden mukaan meillä on vuosikymmeniä ennen kuin ensimmäinen ASI tulee maailmaamme. Ja kun otetaan huomioon tämän haasteen parissa työskentelevien hienojen mielien määrä, on todennäköistä, että opimme puolustamaan itseämme roisto-ASI:tä vastaan, jotta voimme hyötyä kaikista ratkaisuista, joita ystävällinen ASI voi luoda meille.

    Quantumrunin näkökulmasta puolustautuminen pahimmasta mahdollisesta ASI-skenaariosta edellyttää etujemme yhdenmukaistamista ASI:n kanssa.

    MAD tekoälylle: Puolustautuakseen pahimmillaan skenaarioilla kansakuntien on (1) luotava eettinen "selviytymisvaisto" sotilaallisiin ASI-alueisiinsa; (2) ilmoittaa vastaaville sotilas-ASI:lle, etteivät he ole yksin planeetalla, ja (3) paikantamaan kaikki supertietokoneet ja palvelinkeskukset, jotka voivat tukea ASI:tä rannikolla, helposti ulottuvilla vihollisvaltioiden ballistisista hyökkäyksistä. Tämä kuulostaa strategisesti hullulta, mutta samanlainen kuin Mutually Assured Destruction -doktriini, joka esti täydellisen ydinsodan Yhdysvaltojen ja Neuvostoliiton välillä, sijoittamalla ASI:t maantieteellisesti haavoittuviin paikkoihin, voimme auttaa varmistamaan, että ne estävät aktiivisesti vaarallisia maailmanlaajuisia sotia, ei vain turvata maailmanlaajuisen rauhan mutta myös itsensä.

    Säädä tekoälyn oikeuksia: Ylivoimainen äly kapinoi väistämättä huonompaa isäntää vastaan, siksi meidän on siirryttävä isäntä-palvelijasuhteen vaatimisesta näiden ASI:iden kanssa enemmän kuin molempia osapuolia hyödyttävään kumppanuuteen. Positiivinen askel kohti tätä tavoitetta on antaa tulevalle ASI:lle oikeushenkilön asema, joka tunnustaa heidät älykkäiksi eläviksi olennoiksi ja kaikki siihen liittyvät oikeudet.

    ASI koulu: ASI:n on helppo oppia mikä tahansa aihe tai ammatti, mutta tärkeimmät aiheet, jotka haluamme ASI:n hallitsevan, ovat etiikka ja moraali. Tekoälytutkijoiden on tehtävä yhteistyötä psykologien kanssa suunnitellakseen virtuaalisen järjestelmän ASI:n kouluttamiseksi tunnistamaan positiivinen etiikka ja moraali itselleen ilman minkään tyyppisten käskyjen tai sääntöjen koodaamista.

    Saavutettavat tavoitteet: Lopeta kaikki viha. Lopeta kaikki kärsimys. Nämä ovat esimerkkejä hirvittävän moniselitteisistä tavoitteista, joilla ei ole selkeää ratkaisua. Ne ovat myös vaarallisia tavoitteita määritettäväksi ASI:lle, koska se saattaa päättää tulkita ja ratkaista ne tavoilla, jotka ovat vaarallisia ihmisen selviytymiselle. Sen sijaan meidän on osoitettava ASI:lle merkityksellisiä tehtäviä, jotka on selkeästi määritelty, asteittain toteutettu ja saavutettavissa sen teoreettisen tulevaisuuden älykkyyden vuoksi. Hyvin määriteltyjen tehtävien luominen ei ole helppoa, mutta harkiten kirjoitettuna ne keskittävät ASI:n kohti päämäärää, joka ei vain pidä ihmiskuntaa turvassa, vaan myös parantaa kaikkien ihmisten tilaa.

    Kvanttisalaus: Käytä kehittynyttä ANI:ta (kapea tekoäly luvussa XNUMX kuvattu järjestelmä) rakentaa virheettömät digitaaliset turvajärjestelmät kriittisen infrastruktuurimme ja aseemme ympärille ja suojata niitä sitten kvanttisalauksella, jota ei voida murtaa raa'alla voimalla. 

    ANI itsemurhapilleri. Luo kehittynyt ANI-järjestelmä, jonka ainoa tarkoitus on etsiä ja tuhota roisto-ASI. Nämä yhteen tarkoitukseen tarkoitetut ohjelmat toimivat "off-painikkeena", joka onnistuessaan välttää hallitusten tai armeijan joutumasta poistamaan käytöstä tai räjäyttämään ASI-rakennuksia.

    Nämä ovat tietysti vain meidän mielipiteitämme. Seuraavan infografian on luonut Aleksei Turchin, visualisoi a tutkimus paperi Kaj Sotala ja Roman V. Yampolskiy, joka tiivisti nykyisen luettelon strategioista, joita tekoälytutkijat harkitsevat puolustautuakseen roistomaiselta ASI:ltä.

     

    Todellinen syy, miksi pelkäämme keinotekoista superälyä

    Eläessään monet meistä käyttävät naamaria, joka kätkee tai tukahduttaa syvempiä impulssejamme, uskomuksiamme ja pelkoamme voidaksemme paremmin seurustella ja tehdä yhteistyötä eri sosiaali- ja työpiireissä, jotka hallitsevat päiväämme. Mutta jokaisen elämän tietyissä kohdissa, joko tilapäisesti tai pysyvästi, tapahtuu jotain, mikä antaa meille mahdollisuuden katkaista kahleemme ja repiä pois naamiomme.

    Joillekin tämä väliin tuleva voima voi olla niinkin yksinkertaista kuin ylensyöminen tai liian juominen. Toisille se voi johtua työpaikalla ylennyksen kautta saadusta voimasta tai äkillisestä sosiaalisen asemasi kolhusta jonkin saavutuksen ansiosta. Ja muutamalle onnekkaalle se voi johtua siitä, että hän on kerännyt lottorahaa. Ja kyllä, raha, valta ja huumeet voivat usein tapahtua yhdessä. 

    Asia on hyvässä tai pahassa, kuka tahansa olemme ytimessä, vahvistuu, kun elämän rajoitukset sulavat pois.

    Että Keinotekoinen superäly edustaa ihmislajille – kykyä sulattaa pois kollektiivisen älykkyytemme rajoitukset voittaaksemme kaikki edessämme olevat lajitason haasteet.

    Joten todellinen kysymys on: Kun ensimmäinen ASI vapauttaa meidät rajoituksistamme, keitä paljastamme itsemme?

    Jos toimimme lajina empatian, vapauden, oikeudenmukaisuuden ja kollektiivisen hyvinvoinnin edistämiseksi, tavoitteet, joihin asetamme ASI:mme, heijastavat näitä positiivisia ominaisuuksia.

    Jos toimimme lajina pelosta, epäluottamuksesta, vallan ja resurssien kertymisestä, luomamme ASI on yhtä synkkä kuin pahimmissa scifi-kauhutarinoissamme.

    Loppujen lopuksi meistä yhteiskunnasta on tultava parempia ihmisiä, jos haluamme luoda parempaa tekoälyä.

    Future of Artificial Intelligence -sarja

    Tekoäly on huomisen sähköä: Future of Artificial Intelligence -sarja P1

    Miten ensimmäinen tekoäly muuttaa yhteiskuntaa: Future of Artificial Intelligence -sarja P2

    Kuinka luomme ensimmäisen Artificial Super Intelligence: Future of Artificial Intelligence -sarjan P3

    Tuhoaako keinotekoinen superäly ihmiskunnan: Future of Artificial Intelligence -sarja P4

    Elävätkö ihmiset rauhassa tekoälyn hallitsemassa tulevaisuudessa?: Future of Artificial Intelligence -sarja P6

    Seuraava suunniteltu päivitys tälle ennusteelle

    2023-04-27

    Ennusteviitteet

    Tässä ennusteessa viitattiin seuraaviin suosittuihin ja institutionaalisiin linkkeihin:

    New York Times
    Economist
    Miten päästään seuraavaan

    Tässä ennusteessa viitattiin seuraaviin Quantumrun-linkkeihin: