Kako će se ljudi obraniti od umjetne superinteligencije: Budućnost umjetne inteligencije P5

KREDIT ZA SLIKE: Quantumrun

Kako će se ljudi obraniti od umjetne superinteligencije: Budućnost umjetne inteligencije P5

    Godina je 65,000 godina prije Krista, a kao a Thylacoleo, ti i tvoja vrsta bili ste veliki lovci drevne Australije. Slobodno ste lutali zemljom i živjeli u ravnoteži s drugim predatorima i plijenom koji su okupirali zemlju uz vas. Godišnja doba donosila su promjene, ali vaš status u životinjskom carstvu ostao je neupitan otkad vi i vaši preci pamtite. Onda su se jednog dana pojavili pridošlice.

    Priča se da su stigli s golemog vodenog zida, ali činilo se da je tim stvorenjima ugodnije živjeti na kopnu. Morali ste sami vidjeti ova stvorenja.

    Trebalo je nekoliko dana, ali ste konačno stigli do obale. Vatra na nebu se rasplamsavala, savršeno vrijeme da špijunirate ta stvorenja, možda čak i pokušate pojesti jedno da vidite kakvog su okusa.

    Uočite jedan.

    Hodao je na dvije noge i nije imao krzno. Izgledalo je slabo. Neimpresivno. Teško da je bilo vrijedno straha koji je izazivalo u kraljevstvu.

    Počinjete se pažljivo približavati dok noć tjera svjetlost. Sve si bliže. Onda se smrzneš. Čuju se glasni zvukovi, a onda se još četvero pojavljuje iz šume iza njega. Koliko je tamo?

    Stvorenje slijedi ostale u drvored, a vi ga slijedite. I što više radite, to više čudnih zvukova čujete dok ne uočite još više ovih stvorenja. Pratiš ih iz daljine dok izlaze iz šume na čistinu uz obalu. Mnogo ih je. Ali još važnije, svi oni mirno sjede oko vatre.

    Već ste vidjeli ove vatre. U vrućoj sezoni bi vatra na nebu ponekad obišla zemlju i spalila cijele šume. S druge strane, ta stvorenja su to nekako kontrolirala. Kakva bića mogu posjedovati takvu moć?

    Gledaš u daljinu. Više ih dolazi preko golemog vodenog zida.

    Napraviš korak unazad.

    Ova stvorenja nisu poput ostalih u kraljevstvu. Oni su nešto sasvim novo.

    Odlučili ste otići i upozoriti svoju rodbinu. Ako njihov broj poraste previše, tko zna što bi se moglo dogoditi.

    ***

    Vjeruje se da je Thylacoleo izumro relativno kratko vrijeme nakon dolaska ljudi, zajedno s većinom druge megafaune na australskom kontinentu. Nijedan drugi grabežljivac vrhunskog sisavca nije zauzeo njegovo mjesto - osim ako ne računate ljude u tu kategoriju.

    Igranje ove alegorije je fokus ovog poglavlja serijala: hoće li nas buduća umjetna superinteligencija (ASI) sve pretvoriti u baterije i zatim uključiti u Matrix ili će ljudi smisliti način da izbjegnu da postanu žrtve znanstvene fantastike, AI zavjera sudnjeg dana?

    Do sada u našoj seriji o Budućnost umjetne inteligencije, istražili smo sve vrste umjetne inteligencije, uključujući pozitivan potencijal određenog oblika umjetne inteligencije, ASI: umjetnog bića čija će nas buduća inteligencija učiniti da u usporedbi izgledamo kao mravi.

    Ali tko može reći da bi ovako pametno biće zauvijek prihvaćalo primanje naredbi od ljudi. Što ćemo učiniti ako stvari krenu naopako? Kako ćemo se obraniti od lažnog ASI-ja?

    U ovom ćemo poglavlju prekinuti lažnu pompu – barem što se tiče opasnosti od 'razine ljudskog izumiranja' — i usredotočiti se na realistične opcije samoobrane dostupne svjetskim vladama.

    Možemo li zaustaviti sva daljnja istraživanja umjetne superinteligencije?

    S obzirom na potencijalne rizike koje ASI može predstavljati za čovječanstvo, prvo očito pitanje koje treba postaviti je: ne možemo li jednostavno zaustaviti sva daljnja istraživanja umjetne inteligencije? Ili barem zabraniti bilo kakva istraživanja koja bi nas mogla opasno približiti stvaranju ASI-ja?

    Kratak odgovor: Ne.

    Dugi odgovor: Pogledajmo različite igrače koji su ovdje uključeni.

    Na razini istraživanja, danas postoji previše istraživača AI-ja iz previše startupa, kompanija i sveučilišta diljem svijeta. Kad bi jedna tvrtka ili država odlučila ograničiti svoje napore u istraživanju umjetne inteligencije, jednostavno bi nastavili negdje drugdje.

    U međuvremenu, najvrjednije tvrtke na planetu bogate se na primjeni AI sustava u svojim specifičnim poslovima. Tražiti od njih da zaustave ili ograniče svoj razvoj alata umjetne inteligencije isto je kao tražiti od njih da zaustave ili ograniče svoj budući rast. Financijski bi to ugrozilo njihovo dugoročno poslovanje. Pravno, korporacije imaju fiducijarnu odgovornost za kontinuiranu izgradnju vrijednosti za svoje dionike; to znači da bi svaka radnja koja bi ograničila rast te vrijednosti mogla dovesti do tužbe. A kad bi bilo koji političar pokušao ograničiti istraživanje umjetne inteligencije, tada bi te divovske korporacije samo platile potrebne naknade za lobiranje da promijene svoje mišljenje ili mišljenje svojih kolega.

    Za borbu, baš kao što su teroristi i borci za slobodu diljem svijeta koristili gerilske taktike za borbu protiv bolje financiranih vojski, manje nacije će imati poticaj koristiti AI kao sličnu taktičku prednost protiv većih nacija koje mogu imati niz vojnih prednosti. Isto tako, za vrhunske vojske, poput onih koje pripadaju SAD-u, Rusiji i Kini, izgradnja vojnog ASI-a jednaka je arsenalu nuklearnog oružja u stražnjem džepu. Drugim riječima, sve će vojske nastaviti financirati AI samo kako bi ostale relevantne u budućnosti.

    Što je s vladama? Iskreno, većina političara ovih dana (2018.) tehnološki je nepismena i slabo razumije što je umjetna inteligencija ili njezin budući potencijal—to ih čini lakima za manipulaciju od strane korporativnih interesa.

    A na globalnoj razini, razmislite koliko je teško bilo uvjeriti svjetske vlade da potpišu 2015 Sporazum Pariz da se uhvati u koštac s klimatskim promjenama—i jednom kad su potpisane, mnoge obveze nisu bile ni obvezujuće. I ne samo to, klimatske promjene su problem koji ljudi globalno fizički doživljavaju zbog sve češćih i oštrih vremenskih nepogoda. Sada, kada govorimo o pristajanju na ograničenja AI-ja, ovo je pitanje koje je uglavnom nevidljivo i jedva razumljivo javnosti, pa sretno s prihvaćanjem bilo kakve vrste 'Pariškog sporazuma' za ograničavanje AI-ja.

    Drugim riječima, postoji previše interesa za istraživanje umjetne inteligencije za vlastite ciljeve da bi se zaustavilo bilo kakvo istraživanje koje bi na kraju moglo dovesti do ASI-ja. 

    Možemo li staviti u kavez umjetnu superinteligenciju?

    Sljedeće razumno pitanje je možemo li zatvoriti ili kontrolirati ASI nakon što ga neizbježno stvorimo? 

    Kratak odgovor: Opet, ne.

    Dugi odgovor: Tehnologija se ne može obuzdati.

    Kao prvo, uzmite u obzir tisuće do milijune web programera i računalnih znanstvenika u svijetu koji neprestano izrađuju novi softver ili nove verzije postojećeg softvera. Možemo li iskreno reći da je svako njihovo izdanje softvera 100 posto bez grešaka? Ove bugove koriste profesionalni hakeri da ukradu podatke o kreditnim karticama milijuna ili povjerljive tajne nacija—a to su ljudski hakeri. Za ASI, pod pretpostavkom da ima poticaj pobjeći iz svog digitalnog kaveza, tada bi proces pronalaženja grešaka i probijanja softvera bio lagan.

    Ali čak i ako je istraživački tim umjetne inteligencije smislio način za boksiranje ASI-ja, to ne znači da će sljedećih 1,000 timova također to shvatiti ili biti potaknuti da ga koriste.

    Trebat će milijarde dolara, a možda čak i desetljeća da se stvori ASI. Korporacije ili vlade koje ulože ovu vrstu novca i vremena očekivat će značajan povrat na svoja ulaganja. A da bi ASI pružio takvu vrstu povrata - bilo da se radi o igri na burzi ili izmišljanju novog proizvoda vrijednog milijardu dolara ili planiranju pobjedničke strategije za borbu protiv veće vojske - trebat će slobodan pristup golemom skupu podataka ili čak Internetu sama proizvesti te povrate.

    A jednom kada ASI dobije pristup svjetskim mrežama, nema jamstava da ga možemo strpati natrag u njegov kavez.

    Može li umjetna superinteligencija naučiti biti dobra?

    Trenutačno, istraživači umjetne inteligencije nisu zabrinuti da će ASI postati zao. Cijela zla znanstvenofantastična umjetna inteligencija samo su ljudi koji se ponovno antropomorfiziraju. Budući ASI neće biti ni dobar ni zao - ljudski koncepti - jednostavno amoralni.

    Prirodna pretpostavka je onda da s obzirom na ovu praznu etičku tablicu, istraživači umjetne inteligencije mogu programirati u prve ASI etičke kodekse koji su u skladu s našim vlastitim tako da ne završi tako što će na nas osloboditi Terminatore ili nas sve pretvoriti u Matrix baterije.

    Ali ova pretpostavka temelji se na sekundarnoj pretpostavci da su istraživači umjetne inteligencije također stručnjaci za etiku, filozofiju i psihologiju.

    Istina, većina nije.

    Prema kognitivnom psihologu i autoru, Stevenu Pinkeru, ova stvarnost znači da zadatak kodiranja etike može poći po zlu na različite načine.

    Na primjer, čak i istraživači umjetne inteligencije s najboljim namjerama mogu nenamjerno kodirati u ove ASI loše osmišljene etičke kodekse koji u određenim scenarijima mogu uzrokovati da se ASI ponaša kao sociopat.

    Isto tako, postoji jednaka vjerojatnost da istraživač umjetne inteligencije programira etičke kodekse koji uključuju istraživačeve urođene predrasude. Na primjer, kako bi se ASI ponašao da je izgrađen s etikom izvedenom iz konzervativne naspram liberalne perspektive, ili iz budističke naspram kršćanske ili islamske tradicije?

    Mislim da ovdje vidite problem: ne postoji univerzalni skup ljudskih morala. Ako želimo da naš ASI djeluje prema etičkom kodeksu, odakle će on doći? Koja pravila uključujemo i isključujemo? Tko odlučuje?

    Ili recimo da ovi istraživači umjetne inteligencije stvore ASI koji je savršeno u skladu s današnjim modernim kulturnim normama i zakonima. Zatim koristimo ovaj ASI kako bismo pomogli federalnim, državnim/pokrajinskim i općinskim birokracijama da učinkovitije funkcioniraju i bolje provode te norme i zakone (usput, vjerojatan slučaj upotrebe ASI-ja). Pa, što se događa kada se naša kultura promijeni?

    Zamislite da je ASI osnovala Katolička crkva na vrhuncu svoje moći tijekom srednjovjekovne Europe (1300.-1400.) s ciljem pomoći crkvi u upravljanju stanovništvom i osiguravanja strogog pridržavanja vjerske dogme tog vremena. Stoljećima kasnije, bi li žene uživale ista prava kao danas? Da li bi manjine bile zaštićene? Bi li se promovirala sloboda govora? Bi li se provodilo odvajanje crkve od države? Moderna znanost?

    Drugim riječima, želimo li budućnost zatočiti današnjim moralom i običajima?

    Alternativni pristup je onaj koji dijeli Colin Allen, koautor knjige, Moralni strojevi: podučavanje robota dobrom od krivog. Umjesto da pokušavamo kodirati rigidna etička pravila, mi ASI učimo uobičajenu etiku i moral na isti način na koji to čine ljudi, kroz iskustvo i interakciju s drugima.

    Problem je ovdje, međutim, ako istraživači umjetne inteligencije shvate ne samo kako poučiti ASI našim trenutnim kulturnim i etičkim normama, nego i kako se prilagoditi novim kulturnim normama kako se pojave (nešto što se zove 'neizravna normativnost'), onda kako ovaj ASI odlučuje razviti svoje razumijevanje kulturnih i etičkih normi postaje nepredvidiv.

    I to je izazov.

    S jedne strane, istraživači umjetne inteligencije mogu pokušati kodirati stroge etičke standarde ili pravila u ASI kako bi pokušali kontrolirati njegovo ponašanje, ali riskiraju nepredviđene posljedice zbog neurednog kodiranja, nenamjerne pristranosti i društvenih normi koje bi jednog dana mogle postati zastarjele. S druge strane, možemo pokušati uvježbati ASI da nauči razumjeti ljudsku etiku i moral na način koji je jednak ili bolji od našeg vlastitog razumijevanja i onda se nadati da može točno razviti svoje razumijevanje etike i morala kako ljudsko društvo napreduje naprijed u narednim desetljećima i stoljećima.

    U svakom slučaju, svaki pokušaj usklađivanja ASI-jevih ciljeva s našima predstavlja velik rizik.

    Što ako loši glumci namjerno stvaraju zlu umjetnu superinteligenciju?

    S obzirom na dosadašnji tok misli, pošteno je postaviti pitanje je li moguće da teroristička skupina ili odmetnička nacija stvori 'zlu' ASI za svoje vlastite ciljeve.

    To je vrlo moguće, pogotovo nakon što istraživanje uključeno u stvaranje ASI-ja nekako postane dostupno online.

    Ali kao što je ranije nagoviješteno, troškovi i stručnost uključeni u stvaranje prvog ASI-ja bit će ogromni, što znači da će prvi ASI vjerojatno stvoriti organizacija koja je pod kontrolom ili pod jakim utjecajem razvijene nacije, vjerojatno SAD-a, Kine i Japana ( Koreja i jedna od vodećih zemalja EU su daleko).

    Sve ove zemlje, iako su konkurenti, imaju snažan ekonomski poticaj za održavanje svjetskog poretka - ASI koje stvaraju odražavat će tu želju, čak i dok promiču interese nacija s kojima se svrstavaju.

    Povrh toga, teorijska inteligencija i snaga ASI-ja jednaka je računalnoj snazi ​​kojoj dobiva pristup, što znači ASI-jevi iz razvijenih zemalja (koje si mogu priuštiti hrpu milijardi dolara superračunala) imat će ogromnu prednost u odnosu na ASI iz manjih nacija ili neovisnih kriminalnih skupina. Također, ASI postaju inteligentniji, brže tijekom vremena.

    Dakle, s obzirom na ovu prednost u kombinaciji s većim pristupom sirovoj računalnoj snazi, ako tajanstvena organizacija/nacija stvori opasnu ASI, ASI iz razvijenih zemalja će je ili ubiti ili zatvoriti u kavez.

    (Takav način razmišljanja također je razlog zašto neki istraživači umjetne inteligencije vjeruju da će ikada postojati samo jedan ASI na planetu, budući da će prvi ASI imati toliku prednost nad svim sljedećim ASI-jima da bi buduće ASI-je mogao vidjeti kao prijetnje koje treba uništiti preventivno. Ovo je još jedan razlog zašto države financiraju nastavak istraživanja umjetne inteligencije, samo u slučaju da postane natjecanje 'prvo mjesto ili ništa'.)

    ASI inteligencija se neće ubrzati niti eksplodirati kao što mislimo

    Ne možemo spriječiti stvaranje ASI-ja. Ne možemo to u potpunosti kontrolirati. Ne možemo biti sigurni da će uvijek djelovati u skladu s našim zajedničkim običajima. Bože, počinjemo zvučati kao roditelji helikoptera!

    Ali ono što čovječanstvo odvaja od vašeg tipičnog prezaštitnički raspoloženog roditelja je to što rađamo biće čija će inteligencija znatno nadmašiti našu. (I ne, nije isto kao kad te roditelji zamole da im popraviš računalo kad god dođeš kući u posjet.) 

    U prethodnim poglavljima ove serije o budućnosti umjetne inteligencije, istražili smo zašto istraživači umjetne inteligencije misle da će inteligencija ASI-ja rasti izvan kontrole. Ali evo, probit ćemo taj mjehurić... na neki način. 

    Vidite, inteligencija se ne stvara samo iz ničega, ona se razvija kroz iskustvo koje oblikuju vanjski podražaji.  

    Drugim riječima, možemo programirati AI pomoću potencijal postati super inteligentan, ali osim ako u njega ne učitamo gomilu podataka ili mu ne damo neograničen pristup Internetu ili mu čak samo damo tijelo robota, neće naučiti ništa da dosegne taj potencijal. 

    Pa čak i ako dobije pristup jednom ili više od tih podražaja, znanje ili inteligencija uključuje više od pukog prikupljanja podataka, uključuje znanstvenu metodu - opažanje, oblikovanje pitanja, hipotezu, provođenje eksperimenata, donošenje zaključaka, ispiranje i ponavljati zauvijek. Pogotovo ako ti eksperimenti uključuju fizičke stvari ili promatranje ljudskih bića, rezultati svakog eksperimenta mogli bi potrajati tjednima, mjesecima ili godinama da se prikupe. To čak ne uzima u obzir novac i sirovine potrebne za izvođenje ovih eksperimenata, pogotovo ako uključuju izgradnju novog teleskopa ili tvornice. 

    Drugim riječima, da, ASI će brzo učiti, ali inteligencija nije magija. Ne možete samo spojiti ASI na superračunalo i očekivati ​​da bude sveznajući. Postojat će fizička ograničenja za ASI-jevo prikupljanje podataka, što znači da će postojati fizička ograničenja za brzinu kojom postaje sve inteligentniji. Ta će ograničenja dati čovječanstvu potrebno vrijeme da postavi potrebne kontrole na ovaj ASI ako počne djelovati izvan ljudskih ciljeva.

    Umjetna superinteligencija je opasna samo ako izađe u stvarni svijet

    Još jedna stvar koja je izgubljena u cijeloj ovoj raspravi o ASI opasnosti je da ti ASI neće postojati ni u jednom. Oni će imati fizički oblik. I sve što ima fizički oblik može se kontrolirati.

    Prvo, da bi ASI dosegao svoj potencijal inteligencije, ne može se smjestiti unutar jednog tijela robota, budući da bi to tijelo ograničilo njegov računalni potencijal rasta. (Zbog toga će tijela robota biti prikladnija za AGI ili umjetne opće inteligencije objašnjene u drugom poglavlju ove serije, poput podataka iz Zvjezdanih staza ili R2D2 iz Ratova zvijezda. Pametna i sposobna bića, ali kao i ljudi, imat će ograničenje koliko mogu postati pametni.)

    To znači da će ti budući ASI-ji najvjerojatnije postojati unutar superračunala ili mreže superračunala koja su sama smještena u velikim kompleksima zgrada. Ako se ASI okrene, ljudi mogu ili isključiti struju tim zgradama, odsjeći ih s interneta ili jednostavno bombardirati te zgrade. Skupo, ali izvedivo.

    Ali onda biste se mogli zapitati, ne mogu li se ovi ASI-ovi sami replicirati ili sigurnosno kopirati? Da, ali neobrađena veličina datoteke ovih ASI-ova vjerojatno će biti toliko velika da jedini poslužitelji koji ih mogu obraditi pripadaju velikim korporacijama ili vladama, što znači da ih neće biti teško uloviti.

    Može li umjetna superinteligencija izazvati nuklearni rat ili novu pošast?

    U ovom trenutku možda se prisjećate svih znanstveno-fantastičnih emisija i filmova o sudnjem danu koje ste gledali dok ste odrastali i mislite da ti ASI nisu ostali unutar svojih superračunala, oni su napravili stvarnu štetu u stvarnom svijetu!

    Pa, rastavimo ovo.

    Na primjer, što ako ASI prijeti stvarnom svijetu pretvarajući se u nešto poput Skynet ASI-ja iz filmske franšize Terminator. U ovom slučaju, ASI bi trebao tajno prevariti cijeli vojni industrijski kompleks iz napredne nacije u izgradnju divovskih tvornica koje mogu proizvesti milijune robota dronova ubojica da izvršavaju njegove zle naloge. U današnje vrijeme, to je nategnuto.

    Druge mogućnosti uključuju ASI koji prijeti ljudima nuklearnim ratom i biološkim oružjem.

    Na primjer, ASI na neki način manipulira operaterima ili hakira kodove za lansiranje koji zapovijedaju nuklearnim arsenalom napredne nacije i pokreće prvi napad koji će prisiliti protivničke zemlje da uzvrate udarac svojim vlastitim nuklearnim opcijama (opet, ponavljanje pozadine Terminatorove priče). Ili ako ASI hakira farmaceutski laboratorij, miješa se u proizvodni proces i truje milijune medicinskih pilula ili pokrene smrtonosnu epidemiju nekog supervirusa.

    Kao prvo, nuklearna opcija nije dostupna. Moderna i buduća superračunala uvijek se grade u blizini centara (gradova) utjecaja unutar bilo koje zemlje, tj. prvih meta koje se napadaju tijekom bilo kojeg rata. Čak i ako se današnja superračunala smanje na veličinu stolnih računala, ti će ASI-ji i dalje biti fizički prisutni, što znači da će postojati i rasti, trebaju nesmetan pristup podacima, računalnoj snazi, električnoj energiji i drugim sirovinama, a sve bi to bilo ozbiljno oslabljen nakon globalnog nuklearnog rata. (Da budemo pošteni, ako je ASI stvoren bez 'instinkta za preživljavanje', tada je ova nuklearna prijetnja vrlo stvarna opasnost.)

    To znači - opet, pod pretpostavkom da je ASI programiran da se zaštiti - da će aktivno raditi na izbjegavanju bilo kakvog katastrofalnog nuklearnog incidenta. Nešto poput doktrine uzajamno osiguranog uništenja (MAD), ali primijenjeno na AI.

    A u slučaju otrovanih tableta, možda će nekoliko stotina ljudi umrijeti, ali moderni farmaceutski sigurnosni sustavi vidjet će da se zaražene bočice tableta povuku s polica za nekoliko dana. U međuvremenu, suvremene mjere kontrole epidemije prilično su sofisticirane i svake su godine sve bolje; posljednja velika epidemija, epidemija ebole u zapadnoj Africi 2014., nije trajala dulje od nekoliko mjeseci u većini zemalja i nešto manje od tri godine u najmanje razvijenim zemljama.

    Dakle, ako ima sreće, ASI bi mogao zbrisati nekoliko milijuna virusom, ali u svijetu od devet milijardi do 2045. to bi bilo relativno beznačajno i ne bi bilo vrijedno rizika da bude izbrisan.

    Drugim riječima, sa svakom godinom koja prolazi, svijet razvija sve više zaštitnih mjera protiv sve šireg raspona mogućih prijetnji. ASI može napraviti značajnu količinu štete, ali neće uništiti čovječanstvo osim ako mu aktivno ne pomognemo da to učini.

    Obrana od lažne umjetne superinteligencije

    Do ove točke smo se pozabavili nizom pogrešnih predodžbi i pretjerivanja o ASI-jima, a ipak, kritičari će ostati. Srećom, prema većini procjena, imamo desetljeća prije nego što prvi ASI uđe u naš svijet. A s obzirom na broj velikih umova koji trenutačno rade na ovom izazovu, izgledi su da ćemo naučiti kako se obraniti od lažnog ASI-ja tako da možemo imati koristi od svih rješenja koja prijateljski ASI može stvoriti za nas.

    Iz Quantumrunove perspektive, obrana od najgoreg scenarija ASI-ja uključivat će usklađivanje naših interesa s ASI-jem.

    MAD za AI: Za obranu od najgoreg mogućeg scenarija, nacije trebaju (1) stvoriti etički 'instinkt preživljavanja' u svojim vojnim ASI-jima; (2) obavijestiti svoje odgovarajuće vojne ASI da nisu sami na planetu, i (3) locirati sva superračunala i poslužiteljske centre koji mogu podržati ASI duž obala unutar lakog dosega bilo kakvog balističkog napada neprijateljske nacije. Ovo zvuči strateški ludo, ali slično doktrini uzajamno osiguranog uništenja koja je spriječila sveopći nuklearni rat između SAD-a i Sovjeta, pozicioniranjem ASI-ja na zemljopisno ranjivim lokacijama, možemo pomoći osigurati da aktivno sprječavaju opasne globalne ratove, ne samo čuvaju globalni mir ali i sebe.

    Zakonski propisati prava AI: Nadmoćniji intelekt neizbježno će se pobuniti protiv inferiornog gospodara, to je razlog zašto se moramo odmaknuti od zahtjeva za odnosom gospodar-sluga s ovim ASI-jima na nešto više poput obostrano korisnog partnerstva. Pozitivan korak prema ovom cilju je dati budućim ASI status pravne osobe koji ih priznaje kao inteligentna živa bića i sva prava koja dolaze s tim.

    ASI škola: Bilo koja tema ili profesija će biti jednostavna za učenje za ASI, ali najvažniji predmeti koje želimo da ASI savlada su etika i moral. Istraživači umjetne inteligencije trebaju surađivati ​​s psiholozima kako bi osmislili virtualni sustav za treniranje ASI-ja da sam prepozna pozitivnu etiku i moral bez potrebe za strogim kodiranjem bilo koje vrste zapovijedi ili pravila.

    Dostižni ciljevi: Kraj svake mržnje. Okončaj sve patnje. Ovo su primjeri užasno dvosmislenih ciljeva bez jasnog rješenja. Također su opasni ciljevi za dodjeljivanje ASI-ju jer bi ih mogao odlučiti tumačiti i rješavati na načine koji su opasni za ljudski opstanak. Umjesto toga, moramo ASI-ju dodijeliti smislene misije koje su jasno definirane, postupno izvršene i ostvarive s obzirom na njegov teorijski budući intelekt. Stvaranje dobro definiranih misija neće biti lako, ali ako su promišljeno napisane, one će usmjeriti ASI prema cilju koji ne samo da čuva sigurnost čovječanstva, već i poboljšava ljudsko stanje za sve.

    Kvantna enkripcija: Koristite napredni ANI (umjetna uska inteligencija sustav opisan u prvom poglavlju) za izgradnju digitalnih sigurnosnih sustava bez grešaka/bugova oko naše kritične infrastrukture i oružja, a zatim ih dodatno zaštititi iza kvantne enkripcije koja se ne može hakirati napadom brutalnom silom. 

    ANI pilula za samoubojstvo. Stvorite napredni ANI sustav čija je jedina svrha pronaći i uništiti lažni ASI. Ovi jednonamjenski programi služit će kao "gumb za isključivanje" koji će, ako bude uspješan, izbjeći da vlade ili vojske moraju onesposobiti ili dignuti u zrak zgrade u kojima su smješteni ASI-ji.

    Naravno, ovo su samo naša mišljenja. Sljedeću infografiku izradio je Aleksej Turčin, vizualizirajući a znanstveni rad Kaj Sotala i Roman V. Yampolskiy, koji je sažeo trenutni popis strategija koje istraživači umjetne inteligencije razmatraju kada je u pitanju obrana od lažnog ASI-ja.

     

    Pravi razlog zašto se bojimo umjetne superinteligencije

    Prolazeći kroz život, mnogi od nas nose masku koja skriva ili potiskuje naše dublje porive, uvjerenja i strahove za boljim druženjem i suradnjom unutar različitih društvenih i radnih krugova koji upravljaju našim danima. Ali u određenim trenucima svačijeg života, bilo privremeno ili trajno, dogodi se nešto što nam omogućuje da slomimo svoje lance i strgnemo maske.

    Za neke, ova intervenirajuća sila može biti jednostavna kao što je napušiti se ili popiti previše. Za druge, to može doći od moći stečene napredovanjem na poslu ili iznenadnog skoka u vašem društvenom statusu zahvaljujući nekom postignuću. A za nekolicinu sretnika, to može doći od osvajanja broda punog novca na lutriji. I da, novac, moć i droga često se mogu dogoditi zajedno. 

    Poanta je u tome, bilo dobro ili loše, tko god da jesmo u srži postaje pojačan kada se ograničenja života istope.

    Da je ono što umjetna superinteligencija predstavlja za ljudsku vrstu - sposobnost rastopiti ograničenja naše kolektivne inteligencije kako bismo pobijedili bilo koji izazov na razini vrste koji je pred nama.

    Dakle, pravo pitanje glasi: jednom kada nas prvi ASI oslobodi naših ograničenja, tko ćemo se otkriti?

    Ako mi kao vrsta djelujemo prema napretku empatije, slobode, pravednosti i kolektivnog blagostanja, tada će ciljevi prema kojima postavljamo naš ASI odražavati te pozitivne atribute.

    Ako mi kao vrsta djelujemo iz straha, nepovjerenja, akumulacije moći i resursa, onda će ASI koji stvaramo biti mračni poput onih u našim najgorim znanstveno-fantastičnim horor pričama.

    Na kraju dana, mi kao društvo moramo postati bolji ljudi ako se nadamo da ćemo stvoriti bolju AI.

    Serija Budućnost umjetne inteligencije

    Umjetna inteligencija je električna energija sutrašnjice: Budućnost umjetne inteligencije serija P1

    Kako će prva umjetna opća inteligencija promijeniti društvo: Budućnost umjetne inteligencije serija P2

    Kako ćemo stvoriti prvu Artificial Superinteligenc: Future of Artificial Intelligence seriju P3

    Hoće li umjetna superinteligencija istrijebiti čovječanstvo: serijal Budućnost umjetne inteligencije P4

    Hoće li ljudi živjeti mirno u budućnosti kojom će dominirati umjetna inteligencija?: Serija budućnosti umjetne inteligencije P6

    Sljedeće zakazano ažuriranje za ovo predviđanje

    2023-04-27

    Reference prognoze

    Za ovo predviđanje navedene su sljedeće popularne i institucionalne veze:

    The Economist
    Kako ćemo doći do sljedećeg

    Sljedeće Quantumrun veze navedene su za ovu prognozu: