Hoće li umjetna superinteligencija istrijebiti čovječanstvo? Budućnost umjetne inteligencije P4

KREDIT ZA SLIKE: Quantumrun

Hoće li umjetna superinteligencija istrijebiti čovječanstvo? Budućnost umjetne inteligencije P4

    Postoje određeni izumi u koje nacije idu sve. Riječ je o izumima u kojima sve ovisi o prvom, a sve manje može značiti stratešku i smrtnu prijetnju opstanku nacije.

    Ovi izumi koji određuju povijest ne pojavljuju se često, ali kada se pojave, svijet staje, a predvidljiva budućnost postaje maglovita.

    Posljednji takav izum pojavio se tijekom najgoreg Drugog svjetskog rata. Dok su nacisti jačali na svim frontama u starom svijetu, u novom svijetu, posebno unutar tajne vojne baze izvan Los Alamosa, saveznici su naporno radili na oružju koje će uništiti svako oružje.

    Projekt je u početku bio malen, ali je zatim narastao i zapošljavao je 130,000 ljudi iz SAD-a, UK-a i Kanade, uključujući mnoge od najvećih svjetskih mislilaca tog vremena. Pod kodnim nazivom Projekt Manhattan i s neograničenim proračunom - otprilike 23 milijarde dolara u 2018. godini - ova vojska ljudske domišljatosti na kraju je uspjela stvoriti prvu nuklearnu bombu. Nedugo zatim, Drugi svjetski rat završio je s dva atomska praska.

    Ovo nuklearno oružje otvorilo je atomsko doba, uvelo duboko novi izvor energije i dalo čovječanstvu mogućnost da samo sebe istrijebi u nekoliko minuta - nešto što smo izbjegli usprkos hladnom ratu.

    Stvaranje umjetne superinteligencije (ASI) još je jedan izum koji definira povijest čija moć (i pozitivna i destruktivna) daleko nadmašuje nuklearnu bombu.

    U posljednjem poglavlju serije Budućnost umjetne inteligencije, istražili smo što je ASI i kako ga istraživači planiraju jednog dana izgraditi. U ovom poglavlju ćemo pogledati koje organizacije vode istraživanja umjetne inteligencije (AI), što će ASI željeti kada stekne svijest sličnu ljudskoj i kako bi mogla ugroziti čovječanstvo ako se njome loše upravlja ili ako netko padne pod utjecaj ne tako lijepih režima.

    Tko radi na izgradnji umjetne superinteligencije?

    S obzirom na to koliko će stvaranje ASI-ja biti značajno za ljudsku povijest i koliku će značajnu prednost dati svom tvorcu, ne bi trebalo biti iznenađenje čuti da mnoge skupine neizravno rade na ovom projektu.

    (Pod neizravno, mislimo na rad na istraživanju umjetne inteligencije koje će na kraju stvoriti prvi umjetna opća inteligencija (AGI), što će ubrzo nakon toga dovesti do prvog ASI-ja.)

    Za početak, kada je riječ o naslovima, jasni predvodnici u naprednom istraživanju umjetne inteligencije su vrhunske tehnološke tvrtke u SAD-u i Kini. Na američkom frontu to uključuje tvrtke poput Googlea, IBM-a i Microsofta, au Kini to uključuje tvrtke poput Tencenta, Baidua i Alibabe. Ali budući da je istraživanje umjetne inteligencije relativno jeftino u usporedbi s razvojem nečeg fizičkog, poput boljeg nuklearnog reaktora, ovo je također polje u kojem se mogu natjecati i manje organizacije, poput sveučilišta, startupa i ... organizacija u sjeni (upotrijebite svoju maštu Bond negativca za onaj).

    Ali iza kulisa, pravi poticaj za istraživanje umjetne inteligencije dolazi od vlada i njihovih vojski. Ekonomska i vojna nagrada biti prvi koji je stvorio ASI jednostavno je prevelika (navedeno u nastavku) da bismo riskirali zaostajanje. A opasnosti da budemo posljednji su neprihvatljive, barem za određene režime.

    S obzirom na ove čimbenike, relativno nisku cijenu istraživanja umjetne inteligencije, beskonačne komercijalne primjene napredne umjetne inteligencije i ekonomsku i vojnu prednost što smo prvi stvorili ASI, mnogi istraživači umjetne inteligencije vjeruju da je stvaranje ASI-ja neizbježno.

    Kada ćemo stvoriti umjetnu superinteligenciju

    U našem poglavlju o AGI-jima spomenuli smo kako je anketa vrhunskih istraživača umjetne inteligencije vjerovala da ćemo prvi AGI stvoriti optimistično do 2022., realno do 2040. i pesimistički do 2075. godine.

    I u našem posljednje poglavlje, opisali smo kako je stvaranje ASI-ja općenito rezultat davanja uputa AGI-ju da se beskonačno samopoboljšava i davanja resursa i slobode za to.

    Iz tog razloga, dok će izum AGI-ja možda trebati nekoliko desetljeća, stvaranje ASI-ja može potrajati još nekoliko godina.

    Ova je točka slična konceptu 'računalnog nadvišenja', predloženom u papir, koji su zajedno napisali vodeći mislioci AI Luke Muehlhauser i Nick Bostrom. U osnovi, ako stvaranje AGI-ja nastavi zaostajati za trenutnim napretkom u računalnim kapacitetima, pokretanim Mooreovim zakonom, tada će do trenutka kada istraživači izmisle AGI, biti dostupna toliko jeftina računalna snaga da će AGI imati kapacitet treba brzo preskočiti na razinu ASI.

    Drugim riječima, kada konačno pročitate naslove koji najavljuju da je neka tehnološka tvrtka izmislila prvi pravi AGI, onda nedugo zatim očekujte najavu prvog ASI-ja.

    Unutar uma umjetne superinteligencije?

    U redu, ustanovili smo da puno velikih igrača s dubokim džepom istražuje AI. A onda nakon što je izumljen prvi AGI, vidjet ćemo kako svjetske vlade (vojske) ubrzo nakon toga daju zeleno svjetlo guranju prema ASI-ju kako bi bile prve koje će pobijediti u globalnoj AI (ASI) utrci u naoružanju.

    Ali kada se ovaj ASI stvori, kako će razmišljati? Što će ono htjeti?

    Prijateljski pas, brižni slon, slatki robot—kao ljudi, imamo naviku pokušavati se povezati sa stvarima tako što ćemo ih antropologizirati, tj. primjenjivati ​​ljudske karakteristike na stvari i životinje. Zato je prirodna prva pretpostavka koju ljudi imaju kada razmišljaju o ASI-ju da će, jednom kad se nekako osvijesti, razmišljati i ponašati se slično nama.

    Pa ne nužno.

    Percepcija. Kao prvo, ono što većina zaboravlja je da je percepcija relativna. Načine na koje razmišljamo oblikuje naše okruženje, naša iskustva, a posebno naša biologija. Prvo objašnjeno u treće poglavlje našeg Budućnost ljudske evolucije serije, razmotrite primjer našeg mozga:

    Naš mozak je taj koji nam pomaže shvatiti svijet oko nas. I to ne čini lebdeći iznad naših glava, gledajući oko sebe i kontrolirajući nas pomoću Xbox kontrolera; to čini tako što je zarobljen unutar kutije (naše nogice) i obrađuje bilo koju informaciju koju dobije od naših osjetilnih organa—naših očiju, nosa, ušiju itd.

    Ali baš kao što gluhi ili slijepi žive mnogo kraće živote u usporedbi s radno sposobnim ljudima, zbog ograničenja koje njihov invaliditet postavlja na način na koji mogu percipirati svijet, isto se može reći za sve ljude zbog ograničenja naših osnovnih skup osjetilnih organa.

    Razmislite o ovome: naše oči percipiraju manje od deset trilijuntog dijela svih svjetlosnih valova. Ne možemo vidjeti gama zrake. Ne možemo vidjeti rendgenske snimke. Ne možemo vidjeti ultraljubičasto svjetlo. I nemojte me natjerati na infracrvene, mikrovalne pećnice i radio valove!

    Šalu na stranu, zamislite kakav bi bio vaš život, kako biste mogli percipirati svijet, koliko bi drugačije vaš um mogao funkcionirati da možete vidjeti više od sićušnog tračka svjetla koje vaše oči trenutno dopuštaju. Isto tako, zamislite kako biste doživljavali svijet da je vaš njuh jednak psećem ili da je vaš sluh jednak slonovom.

    Kao ljudi, mi u suštini vidimo svijet kroz špijunku, a to se odražava u umovima koje smo razvili kako bismo shvatili tu ograničenu percepciju.

    U međuvremenu, prvi ASI bit će rođen unutar superračunala. Umjesto organa, inputi kojima će pristupati uključuju ogromne skupove podataka, moguće (vjerojatno) čak i pristup samom Internetu. Istraživači bi mu mogli dati pristup CCTV kamerama i mikrofonima cijelog grada, senzorskim podacima iz dronova i satelita, pa čak i fizičkom obliku robotskog tijela ili tijela.

    Kao što možete zamisliti, um rođen unutar superračunala, s izravnim pristupom Internetu, milijunima elektroničkih očiju i ušiju i čitavom nizu drugih naprednih senzora neće samo razmišljati drugačije od nas, već će imati um koji ima smisla svih tih osjetilnih inputa također bi morali biti beskrajno superiorniji od nas. Ovo je um koji će biti potpuno stran našem vlastitom i bilo kojem drugom obliku života na planetu.

    Golovi. Druga stvar koju ljudi pretpostavljaju je da kada ASI dosegne neku razinu superinteligencije, odmah će shvatiti želju da osmisli svoje vlastite ciljeve. Ali ni to nije nužno točno.

    Mnogi istraživači umjetne inteligencije vjeruju da su superinteligencija ASI-ja i njegovi ciljevi "ortogonalni", to jest, bez obzira na to koliko pametan postane, ciljevi ASI-ja ostat će isti. 

    Dakle, bez obzira da li je umjetna inteligencija izvorno stvorena da dizajnira bolje pelene, maksimizira povrate na burzi ili osmisli načine kako poraziti neprijatelja na bojnom polju, jednom kada dosegne razinu ASI, izvorni cilj se neće promijeniti; ono što će se promijeniti je učinkovitost ASI-ja u postizanju tih ciljeva.

    Ali ovdje leži opasnost. Ako se ASI optimizira za određeni cilj, onda je bolje da budemo prokleto sigurni da se optimizira za cilj koji je u skladu s ciljevima čovječanstva. U suprotnom, rezultati mogu biti smrtonosni.

    Predstavlja li umjetna superinteligencija egzistencijalni rizik za čovječanstvo?

    Pa što ako je ASI pušten u svijet? Ako se optimizira za dominaciju burzom ili osiguranje američke vojne nadmoći, neće li se ASI zadržati unutar tih specifičnih ciljeva?

    Možda.

    Do sada smo raspravljali o tome kako će ASI biti opsjednut ciljevima koji su mu izvorno dodijeljeni i neljudski kompetentan u potrazi za tim ciljevima. Kvaka je u tome što će racionalni agent slijediti svoje ciljeve na najučinkovitiji mogući način osim ako mu se ne da razlog za to.

    Na primjer, racionalni agent će smisliti niz podciljeva (tj. ciljeva, instrumentalnih ciljeva, odskočnih daski) koji će mu pomoći na putu do postizanja krajnjeg cilja. Za ljude, naš ključni podsvjesni cilj je reprodukcija, prijenos vaših gena (tj. neizravna besmrtnost). Podciljevi u tu svrhu često mogu uključivati:

    • Preživjeti, pristupiti hrani i vodi, rasti i ojačati, naučiti se braniti ili ulagati u razne oblike zaštite itd. 
    • Privlačenje partnera vježbanjem, razvijanjem privlačne osobnosti, elegantnim odijevanjem itd.
    • Priuštiti potomstvo, stjecanjem obrazovanja, dobivanjem visoko plaćenog posla, kupnjom zamki života srednje klase, itd.

    Za veliku većinu nas, robovat ćemo svim tim podciljevima, i mnogim drugima, s nadom da ćemo na kraju postići ovaj krajnji cilj reprodukcije.

    Ali ako bi ovaj krajnji cilj, ili čak bilo koji od važnijih podciljeva, bio ugrožen, mnogi od nas bi poduzeli obrambene radnje izvan svoje zone moralne udobnosti - što uključuje varanje, krađu ili čak ubijanje.

    Isto tako, u životinjskom carstvu, izvan granica ljudskog morala, mnoge životinje ne bi dvaput razmišljale o tome da ubiju bilo što što prijeti njima samima ili njihovom potomstvu.

    Budući ASI neće biti ništa drugačiji.

    Ali umjesto na potomstvo, ASI će se usredotočiti na izvorni cilj za koji je stvoren, au potrazi za tim ciljem, ako otkrije da određena grupa ljudi, ili čak cijelo čovječanstvo, predstavlja prepreku u potrazi za njegovim ciljevima , onda ... donijet će racionalnu odluku.

    (Ovdje možete uključiti bilo koji scenarij sudnjeg dana vezan uz umjetnu inteligenciju o kojem ste čitali u svojoj omiljenoj znanstveno-fantastičnoj knjizi ili filmu.)

    Ovo je najgori mogući scenarij za koji su istraživači umjetne inteligencije zaista zabrinuti. ASI neće djelovati iz mržnje ili zla, samo iz ravnodušnosti, isto kao i kako građevinska ekipa neće dvaput razmisliti o tome da buldožerom sruše mravinjak u procesu izgradnje novog stambenog tornja.

    Dodatna napomena. U ovom trenutku, neki od vas bi se mogli pitati: "Ne mogu li istraživači umjetne inteligencije jednostavno naknadno urediti temeljne ciljeve ASI-ja ako otkrijemo da djeluje izvana?"

    Ne baš.

    Nakon što ASI sazrije, svaki pokušaj uređivanja njegovih izvornih ciljeva može se smatrati prijetnjom koja bi zahtijevala ekstremne radnje za obranu. Koristeći cijeli primjer ljudske reprodukcije od ranije, to je gotovo kao da je lopov prijetio da će ukrasti bebu iz utrobe buduće majke - možete biti prokleto sigurni da bi majka poduzela ekstremne mjere da zaštiti svoje dijete.

    Opet, ovdje ne govorimo o kalkulatoru, već o 'živom' biću, koje će jednog dana postati daleko pametnije od svih ljudi na planetu zajedno.

    Nepoznato

    Iza bajke o Pandorina kutija manje je poznata istina koju ljudi često zaboravljaju: otvaranje kutije je neizbježno, ako ne vi, onda netko drugi. Zabranjeno znanje previše je primamljivo da bi zauvijek ostalo zaključano.

    To je razlog zašto je pokušaj postizanja globalnog sporazuma o zaustavljanju svih istraživanja AI-ja koja bi mogla dovesti do ASI-ja besmislena - postoji jednostavno previše organizacija koje službeno i u sjeni rade na ovoj tehnologiji.

    U konačnici, nemamo pojma što će ovaj novi entitet, ovaj ASI značiti društvu, tehnologiji, politici, miru i ratu. Mi ljudi ćemo iznova izmisliti vatru, a potpuno je nepoznato kamo nas to stvaranje vodi.

    Vraćajući se na prvo poglavlje ove serije, jedina stvar koju sigurno znamo jest da je inteligencija moć. Inteligencija je kontrola. Ljudi mogu povremeno posjetiti najopasnije životinje na svijetu u svojim lokalnim zoološkim vrtovima ne zato što smo fizički jači od tih životinja, već zato što smo znatno pametniji.

    Uzimajući u obzir moguće uloge ASI-ja koji koristi svoj golemi intelekt za poduzimanje radnji koje mogu izravno ili nenamjerno ugroziti opstanak ljudske rase, dužni smo barem pokušati osmisliti zaštitne mjere koje će ljudima omogućiti da ostanu u vozačevom sjedalo-to je tema sljedećeg poglavlja.

    Serija Budućnost umjetne inteligencije

    P1: Umjetna inteligencija je električna energija sutrašnjice

    P2: Kako će prva umjetna opća inteligencija promijeniti društvo

    P3: Kako ćemo stvoriti prvu umjetnu superinteligenciju

    P5: Kako će se ljudi obraniti od umjetne superinteligencije

    P6: Hoće li ljudi živjeti mirno u budućnosti kojom će dominirati umjetna inteligencija?

    Sljedeće zakazano ažuriranje za ovo predviđanje

    2025-09-25

    Reference prognoze

    Za ovo predviđanje navedene su sljedeće popularne i institucionalne veze:

    The Economist
    Kako ćemo doći do sljedećeg

    Sljedeće Quantumrun veze navedene su za ovu prognozu: