Hoće li umjetna superinteligencija istrijebiti čovječanstvo? Budućnost umjetne inteligencije P4

KREDIT ZA SLIKU: Quantumrun

Hoće li umjetna superinteligencija istrijebiti čovječanstvo? Budućnost umjetne inteligencije P4

    Postoje određeni izumi u koje nacije ulaze. To su izumi u kojima sve zavisi od toga da se bude prvi, a sve manje može predstavljati stratešku i smrtnu prijetnju opstanku nacije.

    Ovi izumi koji definišu istoriju ne dolaze često, ali kada se pojave, svet staje i predvidljiva budućnost postaje maglovita.

    Posljednji takav izum pojavio se tokom najgoreg Drugog svjetskog rata. Dok su se nacisti osvajali na svim frontovima u starom svijetu, u novom svijetu, posebno unutar tajne vojne baze izvan Los Alamosa, saveznici su naporno radili na oružju kojim bi se uništilo sve oružje.

    Projekat je u početku bio mali, ali je potom narastao i zaposlio 130,000 ljudi iz SAD-a, Velike Britanije i Kanade, uključujući mnoge od najvećih svjetskih mislilaca tog vremena. Pod kodnim nazivom Projekt Manhattan i s neograničenim budžetom – otprilike 23 milijarde dolara u dolarima iz 2018. – ova armija ljudske genijalnosti na kraju je uspjela stvoriti prvu nuklearnu bombu. Nedugo zatim, Drugi svjetski rat je završio sa dva atomska praska.

    Ovo nuklearno oružje započelo je atomsko doba, uvelo duboko novi izvor energije i dalo čovječanstvu mogućnost da se istrijebi za nekoliko minuta – nešto što smo izbjegli unatoč Hladnom ratu.

    Stvaranje umjetne superinteligencije (ASI) je još jedan izum koji definira povijest čija snaga (i pozitivna i destruktivna) daleko nadmašuje nuklearnu bombu.

    U posljednjem poglavlju serije Future of Artificial Intelligence, istražili smo šta je ASI i kako istraživači planiraju da ga jednog dana naprave. U ovom poglavlju ćemo pogledati koje organizacije vode istraživanja umjetne inteligencije (AI), šta će ASI poželjeti kada stekne svijest nalik čovjeku i kako bi mogao ugroziti čovječanstvo ako se njime loše upravlja ili ako padne pod utjecaj ne baš lepi režimi.

    Ko radi na izgradnji vještačke superinteligencije?

    S obzirom na to koliko će stvaranje ASI biti značajno za ljudsku istoriju i koliko će značajnu prednost dati svom kreatoru, ne bi trebalo biti iznenađenje čuti da mnoge grupe indirektno rade na ovom projektu.

    (Pod indirektnim mislimo na rad na istraživanju AI koje će na kraju stvoriti prvo vještačka opća inteligencija (AGI), to će samo po sebi dovesti do prvog ASI ubrzo nakon toga.)

    Za početak, kada su u pitanju naslovi, jasni lideri u naprednom istraživanju AI su vrhunske tehnološke firme u SAD-u i Kini. Na američkom frontu, ovo uključuje kompanije poput Googlea, IBM-a i Microsofta, au Kini to uključuje kompanije kao što su Tencent, Baidu i Alibaba. Ali budući da je istraživanje umjetne inteligencije relativno jeftino u usporedbi s razvojem nečeg fizičkog, poput boljeg nuklearnog reaktora, ovo je također polje u kojem se mogu takmičiti i manje organizacije, kao što su univerziteti, startupi i… organizacije iz sjene (koristite svoju maštu zlikovaca Bonda za onaj).

    Ali iza kulisa, pravi poticaj iza istraživanja umjetne inteligencije dolazi od vlada i njihove vojske. Ekonomska i vojna nagrada da budete prvi koji je stvorio ASI je jednostavno prevelika (navedeno u nastavku) da bi rizikovali zaostajanje. A opasnosti od toga da budete posljednji su neprihvatljive, barem za određene režime.

    S obzirom na ove faktore, relativno niske troškove istraživanja AI, beskonačne komercijalne primjene napredne AI i ekonomsku i vojnu prednost da se prvi stvori ASI, mnogi istraživači AI vjeruju da je stvaranje ASI neizbježno.

    Kada ćemo stvoriti veštačku superinteligenciju

    U našem poglavlju o AGI, spomenuli smo kako je istraživanje vrhunskih istraživača AI vjerovalo da ćemo stvoriti prvi AGI optimistično do 2022., realno do 2040. i pesimistički do 2075.

    I u našoj poslednje poglavlje, naveli smo kako je stvaranje ASI generalno rezultat davanja instrukcija AGI da se beskrajno samopoboljšava i dajući mu resurse i slobodu da to učini.

    Iz tog razloga, dok AGI može potrajati i do nekoliko decenija da se izmisli, stvaranje ASI može potrajati još samo nekoliko godina.

    Ova tačka je slična konceptu 'računarskog prevjesa', predloženom u papir, čiji su koautori vodeći AI mislioci Luke Muehlhauser i Nick Bostrom. U suštini, ako stvaranje AGI nastavi da zaostaje za trenutnim napretkom u računarskim kapacitetima, zasnovanim na Mooreovom zakonu, tada će do trenutka kada istraživači izume AGI, na raspolaganju biti toliko jeftine računarske snage da će AGI imati kapacitet treba brzo da preskoči na nivo ASI.

    Drugim riječima, kada konačno pročitate naslove koji najavljuju da je neka tehnološka kompanija izmislila prvi pravi AGI, očekujte najavu prvog ASI-ja nedugo zatim.

    Unutar uma vještačke superinteligencije?

    U redu, ustanovili smo da mnogo velikih igrača sa dubokim džepom istražuje AI. A onda, nakon što prvi AGI bude izumljen, videćemo da svetske vlade (vojske) daju zeleno svetlo za pritisak na ASI ubrzo nakon toga kako bi prvi pobedili u globalnoj AI (ASI) trci u naoružanju.

    Ali kada se ovaj ASI stvori, kako će razmišljati? Šta će htjeti?

    Druželjubivi pas, brižni slon, slatki robot – kao ljudi, imamo naviku da pokušavamo da se povežemo sa stvarima kroz njihovo antropologizovanje, tj. primjenom ljudskih karakteristika na stvari i životinje. Zato je prirodna prva pretpostavka koju ljudi imaju kada razmišljaju o ASI-ju da će, kada se nekako osvijesti, misliti i ponašati se slično kao i mi.

    Pa, nije nužno.

    percepcija. Kao prvo, ono što većina zaboravlja jeste da je percepcija relativna. Načine na koje razmišljamo oblikuje naša okolina, naša iskustva, a posebno naša biologija. Prvo objašnjeno u treće poglavlje naše Budućnost ljudske evolucije serije, razmotrimo primjer našeg mozga:

    Naš mozak je taj koji nam pomaže da shvatimo svijet oko nas. I to ne radi tako što lebdi iznad naših glava, gleda okolo i kontroliše nas pomoću Xbox kontrolera; to radi tako što je zarobljen unutar kutije (naših nožica) i obrađuje bilo koju informaciju koju dobije od naših osjetilnih organa - naših očiju, nosa, ušiju, itd.

    Ali baš kao što gluvi ili slijepi žive mnogo kraće u odnosu na radno sposobne ljude, zbog ograničenja koja njihov invaliditet postavlja na način na koji mogu percipirati svijet, isto se može reći za sve ljude zbog ograničenja naših osnovnih skup čulnih organa.

    Razmislite o ovome: naše oči opažaju manje od deset triliontinog dijela svih svjetlosnih valova. Ne možemo vidjeti gama zrake. Ne možemo vidjeti rendgenske snimke. Ne možemo vidjeti ultraljubičasto svjetlo. I nemoj da počnem sa infracrvenim, mikrotalasnim i radio talasima!

    Šalu na stranu, zamislite kako bi izgledao vaš život, kako biste mogli da percipirate svijet, kako bi vaš um mogao funkcionirati drugačije kada biste mogli vidjeti više od malenog djelića svjetla koje vam trenutno dozvoljavaju. Isto tako, zamislite kako biste percipirali svijet da vam je njuh jednak psećem ili ako je vaš sluh jednak čulu slona.

    Kao ljudi, mi u suštini gledamo na svijet kroz špijunku, a to se odražava u umovima koje smo evoluirali da shvatimo tu ograničenu percepciju.

    U međuvremenu, prvi ASI će se roditi unutar superkompjutera. Umjesto organa, ulazi kojima će pristupiti uključuju ogromne skupove podataka, vjerovatno (vjerovatno) čak i pristup samom Internetu. Istraživači bi mu mogli dati pristup CCTV kamerama i mikrofonima cijelog grada, senzornim podacima s dronova i satelita, pa čak i fizičkom obliku tijela ili tijela robota.

    Kao što možete zamisliti, um rođen unutar superkompjutera, sa direktnim pristupom internetu, milionima elektronskih očiju i ušiju i čitavim nizom drugih naprednih senzora ne samo da će misliti drugačije od nas, već i um koji može imati smisla od svih tih senzornih inputa takođe bi morali biti beskonačno superiorniji od nas. Ovo je um koji će biti potpuno stran našem i bilo kom drugom obliku života na planeti.

    Ciljevi. Druga stvar koju ljudi pretpostavljaju je da kada ASI dostigne neki nivo superinteligencije, odmah će ostvariti želju da smisli svoje ciljeve i ciljeve. Ali ni to nije nužno tačno.

    Mnogi istraživači AI vjeruju da su superinteligencija ASI-ja i njegovi ciljevi “ortogonalni”, odnosno, bez obzira na to koliko bude pametan, ciljevi ASI-ja će ostati isti. 

    Dakle, bez obzira da li je AI izvorno kreiran da dizajnira bolju pelenu, maksimizira prinose na berzi ili strategiše načine da se porazi neprijatelj na bojnom polju, kada dostigne nivo ASI, prvobitni cilj se neće promijeniti; ono što će se promijeniti je efikasnost ASI-ja da postigne te ciljeve.

    Ali tu leži opasnost. Ako se ASI optimizira za određeni cilj, onda je bolje da budemo prokleto sigurni da se optimizira za cilj koji je u skladu s ciljevima čovječanstva. U suprotnom, rezultati mogu postati smrtonosni.

    Da li umjetna superinteligencija predstavlja egzistencijalni rizik za čovječanstvo?

    Pa šta ako se ASI pusti na svijet? Ako se optimizira kako bi dominirao na berzi ili osigurao američku vojnu nadmoć, neće li se ASI samoodržati u okviru tih specifičnih ciljeva?

    Moguće.

    Do sada smo razgovarali o tome kako će ASI biti opsjednut ciljevima koji su mu prvobitno dodijeljeni i neljudski kompetentan u postizanju tih ciljeva. Kvaka je u tome što će racionalni agent slijediti svoje ciljeve na najefikasniji mogući način osim ako mu se ne da razlog.

    Na primjer, racionalni agent će smisliti niz podciljeva (tj. ciljevi, instrumentalni ciljevi, odskočne daske) koji će mu pomoći na putu ka postizanju krajnjeg cilja. Za ljude, naš ključni podsvjesni cilj je reprodukcija, prenošenje vaših gena (tj. indirektna besmrtnost). Podciljevi u tom cilju često mogu uključivati:

    • Preživljavanje, pristup hrani i vodi, rast i jačanje, učenje odbrane ili ulaganje u razne oblike zaštite, itd. 
    • Privlačenje partnera, vježbanjem, razvijanjem privlačne ličnosti, stilskim oblačenjem itd.
    • Priuštiti potomstvo, obrazovanjem, dobivanjem visoko plaćenog posla, kupovinom zamki života srednje klase, itd.

    Za ogromnu većinu nas, proći ćemo kroz sve ove podciljeve, i mnoge druge, s nadom da ćemo na kraju postići ovaj krajnji cilj reprodukcije.

    Ali ako bi ovaj krajnji cilj, ili čak bilo koji od važnijih podciljeva, bio ugrožen, mnogi od nas bi poduzeli obrambene akcije izvan naših zona moralnog komfora – što uključuje varanje, krađu ili čak ubijanje.

    Isto tako, u životinjskom carstvu, izvan granica ljudskog morala, mnoge životinje ne bi dvaput razmišljale o tome da ubiju bilo šta što prijeti njima ili njihovom potomstvu.

    Budući ASI neće biti drugačiji.

    Ali umjesto na potomstvo, ASI će se fokusirati na prvobitni cilj zbog kojeg je stvoren, a u potrazi za tim ciljem, ako pronađe određenu grupu ljudi, ili čak cijelo čovječanstvo, predstavlja prepreku u ostvarivanju svojih ciljeva , onda ... doneće racionalnu odluku.

    (Ovdje možete uključiti bilo koji scenarij sudnjeg dana koji se odnosi na umjetnu inteligenciju o kojem ste čitali u svojoj omiljenoj naučno-fantastičnoj knjizi ili filmu.)

    Ovo je najgori scenario zbog kojeg su istraživači AI zaista zabrinuti. ASI neće djelovati iz mržnje ili zla, već samo iz ravnodušnosti, kao što građevinska ekipa neće dvaput razmisliti o tome da buldožerom sruši mravinjak u procesu izgradnje novog stambenog tornja.

    Side note. U ovom trenutku, neki od vas bi se mogli zapitati: "Zar istraživači AI ne mogu jednostavno uređivati ​​ključne ciljeve ASI-ja nakon činjenice ako otkrijemo da se to ponaša?"

    Ne baš.

    Jednom kada ASI sazri, svaki pokušaj da se uredi njegov(i) originalni(i) cilj(ovi) može se smatrati prijetnjom, i kao pretnjom od koje bi bile potrebne ekstremne akcije da se odbrani. Koristeći cijeli primjer ljudske reprodukcije iz ranijeg perioda, to je gotovo kao da je lopov prijetio da će ukrasti bebu iz utrobe buduće majke – možete biti prokleto sigurni da će majka poduzeti ekstremne mjere da zaštiti svoje dijete.

    Opet, ovdje ne govorimo o kalkulatoru, već o 'živom' biću, koje će jednog dana postati daleko pametnije od svih ljudi na planeti zajedno.

    Nepoznato

    Iza priče o Pandorina kutija je manje poznata istina koju ljudi često zaboravljaju: otvaranje kutije je neizbježno, ako ne vi nego neko drugi. Zabranjeno znanje je previše primamljivo da bi zauvijek ostalo zaključano.

    Zbog toga je pokušaj postizanja globalnog sporazuma o zaustavljanju svih istraživanja AI koja bi mogla dovesti do ASI-a besmislen – previše je organizacija koje rade na ovoj tehnologiji i službeno i u sjeni.

    Na kraju krajeva, nemamo pojma šta će ovaj novi entitet, ovaj ASI značiti društvu, tehnologiji, politici, miru i ratu. Mi ljudi spremamo se da iznova izmislimo vatru i kuda nas ova kreacija vodi potpuno je nepoznato.

    Vraćajući se na prvo poglavlje ove serije, jedina stvar koju sigurno znamo je da je inteligencija moć. Inteligencija je kontrola. Ljudi mogu slučajno posjetiti najopasnije životinje na svijetu u njihovim lokalnim zoološkim vrtovima ne zato što smo fizički jači od ovih životinja, već zato što smo znatno pametniji.

    S obzirom na potencijalne uloge da ASI koristi svoj ogroman intelekt da poduzme radnje koje mogu direktno ili nenamjerno ugroziti opstanak ljudske rase, dugujemo sebi da barem pokušamo osmisliti zaštitne mjere koje će omogućiti ljudima da ostanu u vozačevoj sjedište—ovo je tema sljedećeg poglavlja.

    Future of Artificial Intelligence serijal

    Q1: Umjetna inteligencija je sutrašnja struja

    Q2: Kako će prva vještačka opća inteligencija promijeniti društvo

    Q3: Kako ćemo stvoriti prvu umjetnu superinteligenciju

    Q5: Kako će se ljudi braniti od vještačke superinteligencije

    Q6: Hoće li ljudi živjeti mirno u budućnosti u kojoj će dominirati umjetna inteligencija?

    Sljedeće planirano ažuriranje za ovu prognozu

    2025-09-25

    Reference prognoze

    Za ovu prognozu su referencirane sljedeće popularne i institucionalne veze:

    The Economist
    Kako ćemo do sljedećeg

    Sljedeći Quantumrun linkovi su referencirani za ovu prognozu: