Kako će se ljudi braniti od umjetne superinteligencije: Budućnost umjetne inteligencije P5

KREDIT ZA SLIKU: Quantumrun

Kako će se ljudi braniti od umjetne superinteligencije: Budućnost umjetne inteligencije P5

    Godina je 65,000 pne, a kao a Thylacoleo, ti i tvoja vrsta bili ste veliki lovci drevne Australije. Slobodno ste lutali zemljom i živeli u ravnoteži sa drugim grabežljivcima i plenom koji su okupirali zemlju pored vas. Godišnja doba su donijela promjene, ali vaš status u životinjskom carstvu ostao je nepromijenjen sve dok se vi i vaši preci sjećate. Onda su se jednog dana pojavili pridošlice.

    Priča se da su stigli sa džinovskog vodenog zida, ali ova bića su izgledala ugodnije da žive na kopnu. Morali ste lično vidjeti ova stvorenja.

    Trebalo je nekoliko dana, ali ste konačno stigli do obale. Vatra na nebu se gasila, savršeno vrijeme za špijuniranje ovih stvorenja, možda čak i pokušati pojesti jedno da vidite kakav je okus.

    Uoči jednog.

    Hodao je na dvije noge i nije imao krzno. Izgledalo je slabo. Neimpresivno. Teško da je vredno straha koji je izazivao među kraljevstvom.

    Počinjete pažljivo pristupiti dok noć tjera svjetlost. Približavate se. Onda se smrzneš. Čuju se glasni zvukovi, a onda se iza šume pojavljuju još četiri. Koliko ih ima tamo?

    Stvorenje prati ostale u drvoredu, a vi slijedite. I što više radite, čujete više čudnih zvukova dok ne uočite još više ovih stvorenja. Pratite ih iz daljine dok izlaze iz šume na čistinu uz obalu. Ima ih mnogo. Ali što je još važnije, svi mirno sjede oko vatre.

    Već ste vidjeli ove požare. U vrućoj sezoni, vatra na nebu ponekad bi obišla zemlju i spalila čitave šume. S druge strane, ova bića su to nekako kontrolirala. Kakva bića mogu posjedovati takvu moć?

    Gledaš u daljinu. Više dolazi preko džinovskog vodenog zida.

    Odstupite korak unazad.

    Ova stvorenja nisu kao ostala u kraljevstvu. Oni su nešto sasvim novo.

    Odlučuješ da odeš i upozoriš svoju rodbinu. Ako njihov broj postane prevelik, ko zna šta bi se moglo dogoditi.

    ***

    Vjeruje se da je Thylacoleo izumro relativno kratko vrijeme nakon dolaska ljudi, zajedno s većinom druge megafaune na australskom kontinentu. Nijedan drugi grabežljivac sisara na vrhuncu nije zauzeo njegovo mjesto - osim ako ne računate ljude u tu kategoriju.

    Igranje ove alegorije je fokus ovog poglavlja u seriji: Hoće li nas buduća umjetna superinteligencija (ASI) sve pretvoriti u baterije, a zatim uključiti u Matrix ili će ljudi smisliti način da izbjegnu da postanu žrtve sci-fi, AI zaplet sudnjeg dana?

    Do sada u našoj seriji o Budućnost umjetne inteligencije, istražili smo sve vrste AI, uključujući pozitivan potencijal određenog oblika AI, ASI: vještačko biće čija će nas buduća inteligencija učiniti da izgledamo kao mravi u poređenju.

    Ali ko kaže da bi ovako pametno biće zauvek prihvatalo naređenja od ljudi. Šta ćemo ako stvari krenu na jug? Kako ćemo se braniti od lažnog ASI-ja?

    U ovom poglavlju ćemo prekinuti lažnu hajku – barem u pogledu opasnosti od 'nivoa izumiranja ljudi' – i fokusirati se na realistične opcije samoodbrane koje su dostupne svjetskim vladama.

    Možemo li zaustaviti sva dalja istraživanja vještačke superinteligencije?

    S obzirom na potencijalne rizike koje bi ASI mogao predstavljati za čovječanstvo, prvo očigledno pitanje koje treba postaviti je: zar ne možemo jednostavno zaustaviti sva dalja istraživanja AI? Ili barem zabraniti bilo kakvo istraživanje koje bi nas moglo opasno približiti stvaranju ASI?

    Kratak odgovor: Ne.

    Dugačak odgovor: Pogledajmo različite igrače koji su ovdje uključeni.

    Na istraživačkom nivou, danas ima previše istraživača AI iz previše startupa, kompanija i univerziteta širom svijeta. Ako bi jedna kompanija ili država odlučila da ograniči svoje napore u istraživanju AI, jednostavno bi nastavila negdje drugdje.

    U međuvremenu, najvrednije kompanije na planeti obogaćuju se primenom AI sistema u svojim specifičnim poslovima. Zamoliti ih da zaustave ili ograniče razvoj AI alata slično je traženju od njih da zaustave ili ograniče svoj budući rast. Finansijski, to bi ugrozilo njihovo dugoročno poslovanje. Pravno, korporacije imaju fiducijarnu odgovornost da kontinuirano grade vrijednost za svoje dionike; to znači da bi svaka radnja koja bi ograničila rast te vrijednosti mogla dovesti do tužbe. A ako bi bilo koji političar pokušao ograničiti istraživanje umjetne inteligencije, onda bi ove gigantske korporacije samo platile potrebne naknade za lobiranje kako bi promijenile svoje mišljenje ili mišljenje svojih kolega.

    Za borbu, baš kao što su teroristi i borci za slobodu širom svijeta koristili gerilsku taktiku za borbu protiv bolje financiranih vojska, manje nacije će imati poticaj da koriste AI kao sličnu taktičku prednost protiv većih nacija koje mogu imati brojne vojne prednosti. Isto tako, za vrhunske vojske, poput onih koje pripadaju SAD-u, Rusiji i Kini, izgradnja vojnog ASI-ja je ravnopravna sa posedovanjem arsenala nuklearnog oružja u zadnjem džepu. Drugim riječima, sve vojske će nastaviti finansirati AI samo da bi ostale relevantne u budućnosti.

    Šta je sa vladama? Istina, većina političara ovih dana (2018.) je tehnološki nepismena i slabo razumije šta je AI ili njen budući potencijal – to ih čini lakim za manipulisanje korporativnim interesima.

    A na globalnom nivou, razmislite koliko je bilo teško uvjeriti svjetske vlade da potpišu 2015 pariškog sporazuma da se uhvati u koštac sa klimatskim promjenama — a kada su potpisane, mnoge obaveze nisu bile ni obavezujuće. I ne samo to, klimatske promjene su problem s kojim se ljudi fizički suočavaju na globalnom nivou kroz sve češće i teže vremenske prilike. Sada, kada govorimo o pristanku na ograničenja AI, ovo je pitanje koje je uglavnom nevidljivo i jedva razumljivo javnosti, pa sretno da dobijete podršku za bilo koju vrstu 'Pariškog sporazuma' za ograničavanje AI.

    Drugim riječima, previše je interesa koji istražuju AI za svoje ciljeve da bi zaustavili bilo kakvo istraživanje koje bi na kraju moglo dovesti do ASI. 

    Možemo li staviti u kavez umjetnu superinteligenciju?

    Sljedeće razumno pitanje je možemo li staviti u kavez ili kontrolirati ASI kada ga neizbježno stvorimo? 

    Kratak odgovor: Opet, ne.

    Dugačak odgovor: Tehnologija se ne može obuzdati.

    Kao prvo, uzmite u obzir hiljade do miliona veb programera i kompjuterskih naučnika u svetu koji stalno proizvode novi softver ili nove verzije postojećeg softvera. Možemo li iskreno reći da je svako njihovo izdanje softvera 100 posto bez grešaka? Ove greške koriste profesionalni hakeri da ukradu podatke o milionima kreditnih kartica ili povjerljive tajne nacija – a to su ljudski hakeri. Za ASI, pod pretpostavkom da ima poticaj da pobjegne iz svog digitalnog kaveza, tada bi proces pronalaženja grešaka i probijanja softvera bio lak.

    Ali čak i ako je istraživački tim AI otkrio način da ubije ASI, to ne znači da će sljedećih 1,000 timova to također shvatiti ili će biti podstaknuti da ga koriste.

    Biće potrebne milijarde dolara, a možda čak i decenije da se stvori ASI. Korporacije ili vlade koje ulože ovakvu vrstu novca i vremena će očekivati ​​značajan povrat svojih ulaganja. A da bi ASI pružio takvu vrstu povrata – bilo da se radi o igri na berzi ili izmišljanju novog proizvoda od milijardu dolara ili planiranju pobjedničke strategije za borbu protiv veće vojske – trebat će mu besplatan pristup ogromnom skupu podataka ili čak internetu sama da proizvede te povrate.

    A kada ASI dobije pristup svjetskim mrežama, nema garancija da ga možemo vratiti u njegov kavez.

    Može li vještačka superinteligencija naučiti da bude dobra?

    Trenutno, istraživači AI nisu zabrinuti da će ASI postati zao. Cijeli zli, AI sci-fi trop su samo ljudi koji se ponovo antropomorfiziraju. Budući ASI neće biti ni dobar ni zao – ljudski koncepti – jednostavno amoralni.

    Prirodna pretpostavka je da s obzirom na ovu praznu etičku ploču, istraživači umjetne inteligencije mogu programirati u prve ASI etičke kodekse koji su u skladu s našim, tako da na kraju ne ispusti Terminatore na nas ili nas sve pretvori u matrične baterije.

    Ali ova pretpostavka se sastoji od sekundarne pretpostavke da su istraživači AI također stručnjaci za etiku, filozofiju i psihologiju.

    Istina, većina nije.

    Prema kognitivnom psihologu i autoru, Stevenu Pinkeru, ova realnost znači da zadatak kodiranja etike može poći po zlu na različite načine.

    Na primjer, čak i najboljenamjerni istraživači umjetne inteligencije mogu nehotice kodirati ove ASI loše promišljene etičke kodekse koji u određenim scenarijima mogu uzrokovati da se ASI ponaša kao sociopata.

    Isto tako, postoji jednaka vjerovatnoća da istraživač AI programira etičke kodekse koji uključuju istraživačeve urođene predrasude. Na primjer, kako bi se ASI ponašao da je izgrađen s etikom izvedenom iz konzervativne nasuprot liberalne perspektive, ili iz budističke nasuprot kršćanske ili islamske tradicije?

    Mislim da ovdje vidite problem: ne postoji univerzalni skup ljudskog morala. Ako želimo da naš ASI postupa po etičkom kodeksu, odakle će on doći? Koja pravila uključujemo i isključujemo? Ko odlučuje?

    Ili recimo da ovi istraživači AI kreiraju ASI koji je savršeno u skladu sa današnjim modernim kulturnim normama i zakonima. Zatim koristimo ovaj ASI da pomognemo federalnim, državnim/pokrajinskim i opštinskim birokratijama da funkcionišu efikasnije i bolje sprovode ove norme i zakone (usput, verovatno slučaj upotrebe ASI). Pa, šta se dešava kada se naša kultura promeni?

    Zamislite da je ASI stvorila Katolička crkva na vrhuncu svoje moći tokom srednjovjekovne Evrope (1300-1400) s ciljem da pomogne crkvi u upravljanju stanovništvom i osigura striktno pridržavanje religijske dogme tog vremena. Vekovima kasnije, da li bi žene uživale ista prava kao danas? Da li bi manjine bile zaštićene? Da li bi se promovisala sloboda govora? Da li bi se nametnula odvajanje crkve od države? Moderna nauka?

    Drugim riječima, želimo li budućnost zatvoriti u današnji moral i običaje?

    Alternativni pristup je onaj koji dijeli Colin Allen, koautor knjige, Moralne mašine: podučavanje robota pravo od krivog. Umjesto da pokušavamo da kodiramo kruta etička pravila, ASI učimo zajedničku etiku i moral na isti način kao i ljudi, kroz iskustvo i interakciju s drugima.

    Problem je ovdje, međutim, ako istraživači umjetne inteligencije shvate ne samo kako naučiti ASI našim trenutnim kulturnim i etičkim normama, već i kako se prilagoditi novim kulturnim normama kako nastaju (nešto što se zove 'indirektna normativnost'), kako onda ovaj ASI odlučuje da evoluira svoje razumijevanje kulturnih i etičkih normi postaje nepredvidivo.

    I to je izazov.

    S jedne strane, istraživači umjetne inteligencije mogu pokušati kodirati stroge etičke standarde ili pravila u ASI kako bi pokušali kontrolirati njegovo ponašanje, ali rizikuju da se nepredviđene posljedice uvedu zbog neurednog kodiranja, nenamjerne pristranosti i društvenih normi koje bi jednog dana mogle postati zastarjele. S druge strane, možemo pokušati da obučimo ASI da nauči da razumije ljudsku etiku i moral na način koji je jednak ili superiorniji od našeg razumijevanja, a zatim se nadati da može precizno evoluirati svoje razumijevanje etike i morala kako ljudsko društvo napreduje. napred u narednim decenijama i vekovima.

    U svakom slučaju, svaki pokušaj usklađivanja ciljeva ASI-ja sa našim vlastitim predstavlja veliki rizik.

    Šta ako loši glumci namjerno stvore zlu umjetnu superinteligenciju?

    S obzirom na do sada iznesen tok razmišljanja, pošteno je pitanje da li je moguće da teroristička grupa ili odmetnička nacija stvore 'zli' ASI za svoje ciljeve.

    Ovo je vrlo moguće, posebno nakon što istraživanja vezana za kreiranje ASI-ja nekako postanu dostupna online.

    Ali, kao što je ranije nagovešteno, troškovi i stručnost uključeni u stvaranje prvog ASI-a će biti enormni, što znači da će prvi ASI verovatno biti kreirana od strane organizacije koja je pod kontrolom ili pod jakim uticajem razvijene zemlje, verovatno SAD, Kine i Japana ( Koreja i jedna od vodećih zemalja EU su daleko).

    Sve ove zemlje, iako su konkurenti, imaju snažan ekonomski poticaj za održavanje svjetskog poretka – ASI koje stvore odražavat će tu želju, čak i dok promoviraju interese nacija s kojima se povezuju.

    Povrh toga, teorijska inteligencija i moć ASI jednake su računarskoj snazi ​​kojoj dobija pristup, što znači ASI iz razvijenih zemalja (koji mogu priuštiti gomilu milijardi dolara superračunari) će imati ogromnu prednost u odnosu na ASI iz manjih nacija ili nezavisnih kriminalnih grupa. Takođe, ASI vremenom postaju inteligentniji, brže.

    Dakle, s obzirom na ovu prednost, u kombinaciji sa većim pristupom sirovoj računarskoj snazi, ako neka mutna organizacija/nacija stvori opasan ASI, ASI iz razvijenih zemalja će ga ili ubiti ili zatvoriti u kavez.

    (Takav način razmišljanja je i razlog zašto neki istraživači AI vjeruju da će ikada postojati samo jedan ASI na planeti, budući da će prvi ASI imati takvu prednost u odnosu na sve naredne ASI da bi buduće ASI mogao vidjeti kao prijetnju da bude ubijen Ovo je još jedan razlog zašto nacije finansiraju nastavak istraživanja AI, samo u slučaju da to postane takmičenje za 'prvo mjesto ili ništa'.)

    ASI inteligencija se neće ubrzati ili eksplodirati kao što mislimo

    Ne možemo spriječiti stvaranje ASI-ja. Ne možemo to u potpunosti kontrolisati. Ne možemo biti sigurni da će uvijek djelovati u skladu s našim zajedničkim običajima. Bože, počinjemo zvučati kao roditelji helikoptera ovdje!

    Ali ono što razlikuje čovječanstvo od vašeg tipičnog previše zaštitničkog roditelja je to što rađamo biće čija će inteligencija znatno narasti iznad naše. (I ne, nije isto kao kada te roditelji zamole da im popraviš kompjuter kad god dođeš kući u posjetu.) 

    U prethodnim poglavljima ove serije o budućnosti umjetne inteligencije, istražili smo zašto istraživači umjetne inteligencije misle da će inteligencija ASI-ja rasti izvan kontrole. Ali evo, mi ćemo puknuti taj balon... nekako. 

    Vidite, inteligencija se ne stvara samo iz ničega, ona se razvija kroz iskustvo koje je oblikovano vanjskim podražajima.  

    Drugim riječima, možemo programirati AI sa potencijal da postane super inteligentan, ali osim ako u njega učitamo gomilu podataka ili mu damo neograničen pristup internetu ili mu čak samo damo tijelo robota, neće naučiti ništa da bi dostigao taj potencijal. 

    Čak i ako dobije pristup jednom ili više od tih podražaja, znanje ili inteligencija uključuje više od pukog prikupljanja podataka, uključuje naučnu metodu – zapažanje, formiranje pitanja, hipoteze, provođenje eksperimenata, donošenje zaključaka, ispiranje i ponavljati zauvek. Naročito ako ovi eksperimenti uključuju fizičke stvari ili promatranje ljudskih bića, rezultati svakog eksperimenta mogli bi potrajati sedmicama, mjesecima ili godinama da se prikupe. Ovo čak ne uzima u obzir novac i sirove resurse potrebne za izvođenje ovih eksperimenata, posebno ako uključuju izgradnju novog teleskopa ili fabrike. 

    Drugim riječima, da, ASI će brzo naučiti, ali inteligencija nije magija. Ne možete samo povezati ASI sa superkompjuterom i očekivati ​​da će on biti sveznajući. Postojaće fizička ograničenja za ASI prikupljanje podataka, što znači da će postojati fizička ograničenja za brzinu kojom će postati inteligentniji. Ova ograničenja će dati čovječanstvu vrijeme koje mu je potrebno da stavi potrebnu kontrolu na ovaj ASI ako počne djelovati suprotno ljudskim ciljevima.

    Umjetna superinteligencija je opasna samo ako izađe u stvarni svijet

    Još jedna stvar koja se gubi u cijeloj ovoj debati o opasnostima od ASI je da ovi ASI neće postojati ni u jednom ni drugom. Oni će imati fizički oblik. I sve što ima fizički oblik može se kontrolisati.

    Kao prvo, da bi ASI dostigao svoj potencijal inteligencije, ne može se smjestiti unutar jednog robotskog tijela, jer bi ovo tijelo ograničilo njegov potencijal rasta u računarstvu. (Zbog toga će tijela robota biti prikladnija za AGI ili umjetne opće inteligencije objašnjene u drugom poglavlju ove serije, kao što su Podaci iz Zvjezdanih staza ili R2D2 iz Ratova zvijezda. Pametna i sposobna bića, ali kao i ljudi, oni će imati ograničenje koliko pametni mogu postati.)

    To znači da će ovi budući ASI najvjerovatnije postojati unutar superkompjutera ili mreže superračunara koji su sami smješteni u velikim građevinskim kompleksima. Ako se ASI okrene, ljudi mogu ili isključiti struju za ove zgrade, isključiti ih s interneta ili jednostavno bombardirati ove zgrade. Skupo, ali izvodljivo.

    Ali onda biste se mogli zapitati, zar se ovi ASI ne mogu sami replicirati ili podržati? Da, ali veličina sirove datoteke ovih ASI-ja će vjerovatno biti toliko velika da jedini serveri koji mogu njima upravljati pripadaju velikim korporacijama ili vladama, što znači da ih neće biti teško pronaći.

    Može li umjetna superinteligencija izazvati nuklearni rat ili novu kugu?

    U ovom trenutku, možda se prisjećate svih naučno-fantastičnih emisija i filmova sudnjeg dana koje ste gledali dok ste odrastali i mislite da ovi ASI nisu ostali unutar njihovih superkompjutera, već su napravili pravu štetu u stvarnom svijetu!

    Pa, hajde da ih razbijemo.

    Na primjer, šta ako ASI prijeti stvarnom svijetu pretvarajući se u nešto poput Skynet ASI iz filmske franšize, Terminator. U ovom slučaju, ASI bi trebao tajno prevariti cijeli vojni industrijski kompleks iz napredne nacije u izgradnju gigantskih tvornica koje mogu proizvesti milione robota ubica dronova da izvršavaju svoje zle ponude. U današnje vrijeme, to je natezanje.

    Druge mogućnosti uključuju ASI koji prijeti ljudima nuklearnim ratom i biološkim oružjem.

    Na primjer, ASI na neki način manipulira operaterima ili hakuje lansirne kodove koji zapovijedaju nuklearnim arsenalom napredne nacije i pokreće prvi udar koji će natjerati protivničke zemlje da uzvrate svojim vlastitim nuklearnim opcijama (opet, ponavljajući pozadinu Terminatora). Ili ako ASI upadne u farmaceutsku laboratoriju, pokvari proizvodni proces i otruje milione medicinskih pilula ili pokrene smrtonosnu epidemiju nekog super virusa.

    Kao prvo, nuklearna opcija je isključena. Moderni i budući superkompjuteri se uvijek izgrađuju u blizini centara (gradova) uticaja unutar bilo koje zemlje, odnosno prvih meta koji su napadnuti tokom bilo kojeg rata. Čak i ako se današnji superračunari smanje na veličinu desktopa, ovi ASI će i dalje imati fizičku prisutnost, što znači da postoje i rastu, potreban im je neprekidan pristup podacima, računarskoj snazi, struji i drugim sirovinama, što bi sve bilo ozbiljno oslabljen nakon globalnog nuklearnog rata. (Da budemo pošteni, ako je ASI stvoren bez 'instinkta za preživljavanje', onda je ova nuklearna prijetnja vrlo stvarna opasnost.)

    To znači – opet, pod pretpostavkom da je ASI programiran da se zaštiti – da će aktivno raditi na izbjegavanju bilo kakvog katastrofalnog nuklearnog incidenta. Nešto kao doktrina uzajamno osiguranog uništenja (MAD), ali primijenjena na AI.

    A u slučaju otrovanih tableta, možda će nekoliko stotina ljudi umrijeti, ali moderni farmaceutski sigurnosni sistemi će za nekoliko dana vidjeti da se zaražene bočice s tabletama skinu s polica. U međuvremenu, moderne mjere kontrole epidemije prilično su sofisticirane i postaju sve bolje svake godine; posljednja velika epidemija, epidemija ebole u zapadnoj Africi 2014., nije trajala duže od nekoliko mjeseci u većini zemalja i nešto manje od tri godine u najmanje razvijenim zemljama.

    Dakle, ako bude sreće, ASI može uništiti nekoliko miliona virusom, ali u svijetu od devet milijardi do 2045. godine, to bi bilo relativno beznačajno i nije vrijedno rizika da bude izbrisan.

    Drugim riječima, sa svakom godinom, svijet razvija sve više mjera zaštite od sve šireg spektra mogućih prijetnji. ASI može napraviti značajnu količinu štete, ali neće okončati čovječanstvo osim ako mu aktivno ne pomognemo u tome.

    Brani se od lažne vještačke superinteligencije

    Do ovog trenutka smo se pozabavili nizom zabluda i preuveličavanja o ASI, a ipak će kritičari ostati. Srećom, prema većini procjena, imamo decenije prije nego što prvi ASI uđe u naš svijet. A s obzirom na broj sjajnih umova koji trenutno rade na ovom izazovu, izgledi su da ćemo naučiti kako da se odbranimo od lažnog ASI-ja kako bismo mogli imati koristi od svih rješenja koje prijateljski ASI može stvoriti za nas.

    Iz perspektive Quantumruna, odbrana od najgoreg scenarija ASI će uključivati ​​usklađivanje naših interesa sa ASI.

    MAD za AI: Da bi se odbranile od najgoreg scenarija, nacije treba da (1) stvore etički 'instinkt preživljavanja' u svojim vojnim ASI; (2) obavijestiti svoju vojnu ASI da nisu sami na planeti i (3) locirati sve superkompjutere i serverske centre koji mogu podržati ASI duž obale nadomak bilo kakvog balističkog napada neprijateljske nacije. Ovo zvuči strateški ludo, ali slično doktrini uzajamno osiguranog uništenja koja je spriječila sveopšti nuklearni rat između SAD-a i Sovjeta, pozicioniranjem ASI-ja na geografski ranjivim lokacijama, možemo pomoći da se osigura da aktivno sprječavaju opasne globalne ratove, ne samo da čuvaju globalni mir, ali i sebe.

    Zakoniti AI prava: Superiorni intelekt će se neizbežno pobuniti protiv inferiornog gospodara, zato se moramo odmaknuti od zahtevanja odnosa gospodar-sluga sa ovim ASI-ima na nešto što je više nalik na uzajamno korisno partnerstvo. Pozitivan korak ka ovom cilju je davanje budućeg ASI statusa pravnog lica koje ih priznaje kao inteligentna živa bića i sva prava koja s tim dolaze.

    ASI škola: Bilo koja tema ili profesija biće jednostavna za učenje za ASI, ali najvažniji predmeti koje želimo da ASI savlada su etika i moral. Istraživači veštačke inteligencije moraju da sarađuju sa psiholozima kako bi osmislili virtuelni sistem koji će obučiti ASI da prepozna pozitivnu etiku i moral za sebe bez potrebe za čvrstim kodiranjem bilo koje vrste zapovesti ili pravila.

    Ostvarljivi ciljevi: Prekinite svu mržnju. Prekinite svu patnju. Ovo su primjeri užasno dvosmislenih ciljeva bez jasnog rješenja. Oni su također opasni ciljevi koje treba dodijeliti ASI-ju jer on može odlučiti da ih protumači i riješi na načine koji su opasni po ljudski opstanak. Umjesto toga, moramo ASI-ju dodijeliti značajne misije koje su jasno definirane, postepeno izvršavane i ostvarive s obzirom na njegov teorijski budući intelekt. Stvaranje dobro definiranih misija neće biti lako, ali ako su napisane promišljeno, one će usmjeriti ASI prema cilju koji ne samo da čuva čovječanstvo bezbednim, već i poboljšava ljudsko stanje za sve.

    Kvantna enkripcija: Koristite napredni ANI (umjetna uska inteligencija sistem opisan u prvom poglavlju) da izgradimo digitalne sigurnosne sisteme bez grešaka/bugova oko naše kritične infrastrukture i oružja, a zatim ih dodatno zaštitimo iza kvantne enkripcije koja se ne može hakirati napadom grube sile. 

    ANI pilula za samoubistvo. Kreirajte napredni ANI sistem čija je jedina svrha da se pronađe i uništi lažni ASI. Ovi jednonamjenski programi poslužit će kao "dugme za isključivanje" koje će, ako bude uspješan, izbjeći da vlade ili vojske moraju onesposobiti ili dići u zrak zgrade u kojima se nalaze ASI.

    Naravno, ovo su samo naša mišljenja. Sljedeću infografiku kreirao je Alexey Turchin, vizualizacija a istraživački rad Kaj Sotala i Roman V. Yampolskiy, koji sumirali trenutnu listu strategija koje istraživači AI razmatraju kada je u pitanju odbrana od lažnog ASI-ja.

     

    Pravi razlog zašto se plašimo veštačke superinteligencije

    Prolazeći kroz život, mnogi od nas nose masku koja skriva ili potiskuje naše dublje impulse, uvjerenja i strahove kako bismo se bolje družili i surađivali unutar različitih društvenih i radnih krugova koji vladaju našim danima. Ali u određenim trenucima u svačijem životu, bilo privremeno ili trajno, događa se nešto što nam omogućava da raskinemo svoje lance i strgnemo maske.

    Za neke, ova intervenirajuća sila može biti jednostavna kao da se naduva ili popiju previše. Za druge, to može doći od moći stečene unapređenjem na poslu ili iznenadnog porasta vašeg društvenog statusa zahvaljujući nekom postignuću. A za nekolicinu sretnika, to može doći tako što će osvojiti gomilu novca na lutriji. I da, novac, moć i droga se često mogu dogoditi zajedno. 

    Poenta je, u dobru ili u zlu, ko god da smo u srži, postaje pojačan kada se ograničenja života tope.

    da je ono što umjetna superinteligencija predstavlja za ljudsku vrstu – sposobnost da se otope ograničenja naše kolektivne inteligencije kako bi se savladali bilo koji izazov na nivou vrste koji je pred nama.

    Dakle, pravo pitanje je: kada nas prvi ASI oslobodi naših ograničenja, ko ćemo se otkriti?

    Ako kao vrsta djelujemo u pravcu unapređenja empatije, slobode, pravednosti i kolektivnog blagostanja, onda će ciljevi prema kojima postavljamo naš ASI odražavati te pozitivne atribute.

    Ako mi kao vrsta djelujemo iz straha, nepovjerenja, akumulacije moći i resursa, tada će ASI koji stvaramo biti mračni kao oni koji se nalaze u našim najgorim znanstveno-fantastičnim horor pričama.

    Na kraju krajeva, mi kao društvo moramo postati bolji ljudi ako se nadamo da ćemo stvoriti bolju umjetnu inteligenciju.

    Future of Artificial Intelligence serijal

    Umjetna inteligencija je sutrašnja električna energija: budućnost umjetne inteligencije serija P1

    Kako će prva umjetna opća inteligencija promijeniti društvo: Future of Artificial Intelligence serija P2

    Kako ćemo stvoriti prvu seriju Umjetna superinteligenca: Budućnost umjetne inteligencije P3

    Hoće li umjetna superinteligencija istrijebiti čovječanstvo: Future of Artificial Intelligence serija P4

    Hoće li ljudi živjeti mirno u budućnosti u kojoj će dominirati umjetna inteligencija?: Future of Artificial Intelligence serija P6

    Sljedeće planirano ažuriranje za ovu prognozu

    2023-04-27

    Reference prognoze

    Za ovu prognozu su referencirane sljedeće popularne i institucionalne veze:

    The Economist
    Kako ćemo do sljedećeg

    Sljedeći Quantumrun linkovi su referencirani za ovu prognozu: