Gizakiak nola defendatuko dituen superadimen artifizial baten aurka: adimen artifizialaren etorkizuna P5

IRUDIAREN KREDITUA: Quantumrun

Gizakiak nola defendatuko dituen superadimen artifizial baten aurka: adimen artifizialaren etorkizuna P5

    Urtea K.a. 65,000 da, eta a Thylacoleo, zu eta zure modukoak antzinako Australiako ehiztari handiak zineten. Lurrean aske ibili zinen eta orekan bizi zinen zure ondoan lurra okupatzen zuten harrapari eta harrapakinekin. Urtaroak aldaketa ekarri zuen, baina zure egoera animalien erreinuan zalantzan egon zen zuek eta zure arbasoek gogoratzen zenuten bitartean. Orduan, egun batean, etorri berriak agertu ziren.

    Zurrumurruak dio ur-horma erraldoitik heldu zirela, baina izaki hauek erosoago ziruditen lehorrean bizitzen. Zeuk ikusi behar izan dituzu izaki hauek.

    Egun batzuk behar izan zituen, baina azkenean kostaldera iritsi zinen. Zeruko sua pizten ari zen, garai ezin hobea izaki hauek zelatatzeko, agian bat jaten ere saiatu nola zaporea zuten ikusteko.

    bat ikusten duzu.

    Bi hanken gainean ibiltzen zen eta ez zuen larrurik. Ahul zirudien. Inpresionagarria. Ia ez zuen merezi erreinuaren artean sortzen ari zen beldurra.

    Kontu handiz zure hurbilketa egiten hasten zara gauak argia kentzen duen bitartean. Hurbiltzen ari zara. Orduan izoztu egiten zara. Zarata handiak entzuten dira eta, ondoren, beste lau basotik atzean agertzen dira. Zenbat daude?

    Izakiak besteei jarraitzen die zuhaitz-lerroan, eta zuk jarraitzen duzu. Eta zenbat eta gehiago egin, orduan eta soinu arraroagoak entzuten dituzu izaki horietako are gehiago antzeman arte. Urrutitik jarraitzen duzu basotik irteten diren itsasertzeko soilgune batera. Asko dira. Baina garrantzitsuagoa dena, guztiak lasai eserita daude su baten inguruan.

    Lehenago ikusi dituzu su hauek. Denboraldi beroan, zeruko suak lurra bisitatzen zuen batzuetan eta baso osoak erretzen zituen. Izaki hauek, berriz, nolabait kontrolatzen ari ziren. Zein izaki motak izan dezakete botere hori?

    Urrutira begiratzen duzu. Gehiago datoz ur-horma erraldoiaren gainetik.

    Pauso bat atzera egiten duzu.

    Izaki hauek ez dira erreinuko besteak bezalakoak. Zerbait guztiz berria dira.

    Alde egitea erabakitzen duzu eta senideei abisatzea. Haien kopurua handiegia hazten bada, nork daki zer gerta daitekeen.

    ***

    Uste da Thylacoleo desagertu egin zela gizakiak iritsi eta denbora gutxira, Australiako kontinenteko beste megafaunarekin batera. Ez zen beste ugaztun harraparirik hartu bere lekua, hau da, gizakiak kategoria horretan zenbatu ezean.

    Alegoria hau jokatzea da serieko kapitulu honen ardatza: Etorkizuneko superadimen artifizial batek (ASI) denok bateria bihurtuko gaitu eta gero Matrix-era konektatuko gaitu ala gizakiek zientzia-fikzio baten biktima ez izateko modu bat asmatuko al dute? AI doomsday argumentua?

    Orain arte gure seriean Adimen Artifizialaren etorkizuna, AI mota guztiak aztertu ditugu, AI forma jakin baten potentzial positiboa barne, ASIa: izaki artifizial bat, zeinaren etorkizuneko adimenak alderatuz inurrien itxura emango diguna.

    Baina nork esango du hain adimentsu batek gizakien aginduak betirako hartzea onartuko lukeenik. Zer egingo dugu gauzak hegoaldera joaten badira? Nola defendatuko dugu ASI maltzur baten aurka?

    Kapitulu honetan, iragarpen faltsuak moztuko ditugu —gutxienez 'giza desagertze maila' arriskuei dagokienean— eta munduko gobernuek dituzten autodefentsa aukera errealistetan zentratuko gara.

    Superadimen artifizial bati buruzko ikerketa gehiago geldiarazi ditzakegu?

    ASI batek gizadiarentzat izan ditzakeen arrisku potentzialak kontuan hartuta, egin beharreko lehen galdera agerikoa da: ezin al dugu AIaren inguruko ikerketa gehiago geldiarazi? Edo, behintzat, ASI bat sortzera arriskutsuki hurbil gaitzakeen edozein ikerketa debekatu?

    Erantzun laburra: Ez.

    Erantzun luzea: Ikus ditzagun hemen parte hartzen duten eragile desberdinak.

    Ikerketa mailan, gaur egun AI ikertzaile gehiegi daude mundu osoko startup, enpresa eta unibertsitate gehiegitakoak. Enpresa edo herrialde batek AI ikerketarako ahaleginak mugatzea erabakiko balu, beste nonbait jarraituko luke.

    Bien bitartean, planetako enpresarik baliotsuenak beren negozio espezifikoetan AI sistemen aplikazioarekin aberastasuna lortzen ari dira. AI tresnen garapena gelditzeko edo mugatzeko eskatzea etorkizuneko hazkundea gelditzeko edo mugatzeko eskatzearen antzekoa da. Finantza aldetik, horrek epe luzerako negozioa mehatxatuko luke. Legez, korporazioek beren interes-taldeentzako balioa etengabe eraikitzeko ardura fiduziarioa dute; horrek esan nahi du balio horren hazkundea mugatuko lukeen edozein ekintzak auzitara eraman dezakeela. Eta edozein politikari AI ikerketa mugatzen saiatuko balitz, orduan korporazio erraldoi hauek beharrezko lobby-tasak ordainduko lituzkete beren iritzia edo beren lankideen iritzia aldatzeko.

    Borrokarako, mundu osoko terroristek eta askatasun borrokalariek gerrilla taktikak erabili dituzten bezala, hobeto finantzatutako militarren aurka borrokatzeko, nazio txikiek AI erabiltzeko pizgarri bat izango dute abantaila militar batzuk izan ditzaketen nazio handien aurka abantaila taktiko gisa erabiltzeko. Era berean, goi mailako militarrentzat, AEB, Errusia eta Txinakoentzat bezala, ASI militar bat eraikitzea arma nuklearren arsenal bat atzeko poltsikoan edukitzearen parekoa da. Beste era batera esanda, militar guztiek AI finantzatzen jarraituko dute etorkizunean garrantzitsuak izateko.

    Zer moduz gobernuekin? Egia esan, gaur egungo politikari gehienak (2018) teknologikoki analfabetoak dira eta AI zer den edo bere etorkizuneko potentziala ez dute ulertzen; horrek erraz manipulatzen ditu interes korporatiboek.

    Eta mundu mailan, kontuan hartu zein zaila izan zen munduko gobernuak 2015eko sinatzera konbentzitzea Paris-kontratua klima aldaketari aurre egiteko—eta behin sinatuta, betebehar asko ez ziren lotesleak ere. Ez hori bakarrik, klima-aldaketa jendeak fisikoki mundu osoan jasaten duen arazoa da, gero eta maizago eta larriagoak diren eguraldi-gertakariengatik. Orain, AIren mugak adosteari buruz hitz egitean, hau da, neurri handi batean ikusezina eta ia ulergarria den arazoa publikoarentzat, beraz, zorte ona izan AI mugatzeko edozein "Pariseko Akordio"ren erosketa lortzeko.

    Beste era batera esanda, AI ikertzen duten interes gehiegi dago beren helburuetarako, azkenean ASI bat ekar dezakeen edozein ikerketa geldiarazteko. 

    Superadimen artifizial bat kaiolatu al dezakegu?

    Hurrengo galdera arrazoizkoa da ASI bat kaiolatu edo kontrolatu al dezakegu behin ezinbestean sortzen dugunean? 

    Erantzun laburra: Berriz, ez.

    Erantzun luzea: Teknologia ezin da eutsi.

    Batetik, kontuan hartu munduan etengabe software berria edo lehendik dagoen softwarearen bertsio berriak sortzen dituzten milaka eta milioika web garatzaile eta informatikari. Zintzotasunez esan al dezakegu haien software-argitalpen guztiak ehuneko 100 akatsik gabe daudela? Akats hauek hacker profesionalek milioika kreditu-txartelen informazioa edo nazioen sekretu sailkatuak lapurtzeko erabiltzen dituztenak dira, eta hauek giza hackerrak dira. ASI batentzat, bere kaiola digitalari ihes egiteko pizgarri bat zuela suposatuz, orduan akatsak aurkitzeko eta softwarea hausteko prozesua brisa izango litzateke.

    Baina AI ikerketa-talde batek ASI bat kutxatzeko modua asmatu bazuen ere, horrek ez du esan nahi hurrengo 1,000 taldeek ere asmatuko dutenik edo erabiltzera bultzatuko direnik.

    Mila milioi dolar eta agian hamarkada batzuk beharko dira ASI bat sortzeko. Mota honetako dirua eta denbora inbertitzen duten korporazio edo gobernuek inbertsioaren etekin handia esperoko dute. Eta ASI batek errentagarritasun hori eskaintzeko, dela burtsan jokatzeko edo mila milioi dolarreko produktu berri bat asmatzeko edo armada handiago baten aurka borrokatzeko estrategia irabazle bat planifikatzeko, datu multzo erraldoi batera doan sarbidea beharko du edo baita Internetera ere. berak etekin horiek sortzeko.

    Eta ASI batek munduko sareetara sarbidea lortzen duenean, ez dago bermerik bere kaiolara sartu ahal izango dugunik.

    Superadimen artifizial batek ikas al dezake ona izaten?

    Oraintxe bertan, AI ikertzaileak ez daude kezkatzen ASI bat gaizto bilakatzeak. Gaizto osoa, AI zientzia-fikziozko tropoa gizakiak berriro antropomorfizatzen ari dira. Etorkizuneko ASI bat ez da ez ona ez gaiztoa izango —giza kontzeptuak—, besterik gabe, amorala.

    Suposizio naturala da, beraz, taula etiko huts hau kontuan hartuta, AI ikertzaileek gureekin bat datozen lehen ASI kode etikoetan programatu dezaketela, azkenean Terminators gugandik askatu edo denok Matrix bateria bihurtu ez daitezen.

    Baina hipotesi honek bigarren hipotesi batean sartzen du AI ikertzaileak etikan, filosofian eta psikologian ere adituak direla.

    Egia esan, gehienak ez dira.

    Steven Pinker psikologo kognitibo eta egilearen arabera, errealitate honek esan nahi du etika kodetzearen zeregina oker joan daitekeela hainbat modutan.

    Esate baterako, asmorik onena duten AI ikertzaileek nahi gabe kodetu ditzakete ASI gaizki pentsatutako kode etiko hauetan, zenbait agertokitan ASIk soziopata bezala jokatzea eragin dezaketenak.

    Era berean, probabilitate berdina dago AI ikertzaile batek ikertzailearen berezko alborapenak barne hartzen dituzten kode etikoak programatzeko. Adibidez, nola jokatuko litzateke ASI bat ikuspegi kontserbadore eta liberal batetik eratorritako etikarekin eraikiz gero, edo tradizio budista eta kristau edo islamiar batetik?

    Uste dut hemen ikusten duzula arazoa: ez dago giza moralen multzo unibertsala. Gure ASIk kode etiko baten arabera jokatzea nahi badugu, nondik aterako da? Zein arau sartzen ditugu eta baztertzen ditugu? Nork erabakitzen du?

    Edo demagun AI ikertzaile hauek egungo kultura-arau eta lege modernoekin guztiz bat datorren ASI bat sortzen dutela. Ondoren, ASI hau erabiltzen dugu federal, estatu/probintzia eta udal burokrazia eraginkorrago funtzionatzen laguntzeko eta arau eta lege hauek hobeto betetzen laguntzeko (adibidez, ASI baten erabilera kasua). Tira, zer gertatzen da gure kultura aldatzen denean?

    Imajinatu ASI bat sortu zuela Eliza Katolikoak bere boterearen gorenean Erdi Aroko Europan (1300-1400s) elizak biztanleria kudeatzen laguntzeko eta garaiko erlijio-dogmaren atxikimendu zorrotza bermatzeko helburuarekin. Mende batzuk geroago, emakumeek gaur egun dituzten eskubide berberak izango al zituzten? Gutxiengoak babestuko al lirateke? Adierazpen askatasuna sustatuko al litzateke? Eliza eta estatua bereiztea betearaziko al litzateke? Zientzia modernoa?

    Alegia, etorkizuna gaur egungo moral eta ohituretara espetxeratu nahi dugu?

    Ikuspegi alternatibo bat Colin Allenek, liburuaren egileak, partekatzen duena da. Makina moralak: okerretik robotei irakastea. Arau etiko zurrunak kodetzen saiatu beharrean, ASIk etika eta moral komunak ikasten ditugu gizakiek egiten duten modu berean, esperientziaren eta besteekiko elkarreraginaren bidez.

    Hemen arazoa da, ordea, AI ikertzaileek ASI bati gure egungo arau kultural eta etikoak nola irakatsi ez ezik, sortzen diren heinean kultura-arau berrietara nola moldatu («zeharkako normatibitatea» deitzen den zerbait) ere, orduan nola ASI honek arau kultural eta etikoen ulermena eboluzionatzea erabakitzen du ezusteko bihurtzen dela.

    Eta hori da erronka.

    Alde batetik, AI ikertzaileek estandar etiko edo arau zorrotzak ASIn kodetzen saiatu daitezke bere jokabidea kontrolatzen saiatzeko, baina kodeketa maltzurengatik, nahi gabeko alborapenengatik eta egunen batean zaharkitu daitezkeen gizarte-arauengatik aurreikusi gabeko ondorioak sartzeko arriskua dute. Bestalde, ASI trebatzen saia gaitezke giza etika eta morala ulertzen ikasteko gure ulermenaren pareko edo goragoko moduan eta, ondoren, giza gizarteak aurrera egin ahala etikaren eta moralaren ulermena zehaztasunez garatu ahal izango duela itxaroten dugu. aurrera datozen hamarkadetan eta mendeetan.

    Nolanahi ere, ASI baten helburuak gureekin lerrokatzeko saiakerak arrisku handia dakar.

    Zer gertatzen da aktore txarrek nahita superadimen artifizial gaiztoa sortuko balute?

    Orain arte azaldutako pentsamoldearen arabera, galdera zuzena da talde terrorista edo nazio maltzur batek bere helburuetarako ASI "gaizto" bat sortzea posible ote den galdetzea.

    Hori oso posible da, batez ere ASI bat sortzean parte hartzen duten ikerketak nolabait sarean eskuragarri egon ondoren.

    Baina lehen esan bezala, lehen ASI sortzeak dakartzan kostuak eta espezializazioa izugarriak izango dira, hau da, lehen ASI nazio garatu batek kontrolatzen duen edo eragin handia duen erakunde batek sortuko du, ziurrenik AEBek, Txinak eta Japoniak. Korea eta EBko herrialde nagusietako bat urrun daude).

    Herrialde horiek guztiek, lehiakide izan arren, bakoitzak munduko ordena mantentzeko pizgarri ekonomiko handia dute; sortzen dituzten ASIek nahi hori islatuko dute, nahiz eta bat egiten duten nazioen interesak sustatu.

    Horrez gain, ASI baten adimen teorikoa eta boterea eskuratzen duen konputazio-ahalmenaren berdina da, hau da, herrialde garatuetako ASIak (mila milioi dolar mordoa ordaindu ditzaketenak). supercomputers) abantaila izugarria izango du nazio txikiagoetako edo talde kriminal independenteetako ASIekiko. Gainera, ASIak adimentsuagoak eta azkarrago hazten dira denborarekin.

    Beraz, hasiera hori kontuan hartuta, konputazio-ahalmen gordinerako sarbide handiagoarekin konbinatuta, itzalpeko erakunde/nazio batek ASI arriskutsu bat sortuko balu, herrialde garatuetako ASIek hil egingo dute edo kaiolatu egingo dute.

    (Pentsamendu-lerro hau da, halaber, AI ikertzaile batzuek uste dute planetan inoiz ASI bakarra egongo dela, lehen ASIak halako aurrea izango duelako ondorengo ASI guztien aurrean, etorkizuneko ASIak hiltzeko mehatxu gisa ikus ditzakeelako. prebentiboki. Hau da nazioek IAren ikerketa etengabea finantzatzen duten beste arrazoi bat, "lehen postua edo ezer" lehiaketa bihurtzen bada).

    ASI adimenak ez du uste dugun bezala azkartu edo eztanda egingo

    Ezin dugu ASI bat sortzea eragotzi. Ezin dugu guztiz kontrolatu. Ezin dugu ziurtatu beti gure ohituren arabera jokatuko duenik. Aupa, hemendik helikoptero-gurasoen itxura hartzen hasi gara!

    Baina gizateria zure guraso gehiegi babesgarritik bereizten duena zera da, zeinaren adimena gureaz harantzago haziko den izaki bat erditzen ari garela. (Eta ez, ez da berdina zure gurasoek ordenagailua konpontzeko eskatzen dizutenean bisita bat egitera etortzen zaren bakoitzean). 

    Adimen artifizialaren etorkizuneko serie honen aurreko kapituluetan, AI ikertzaileek zergatik pentsatzen duten ASI baten adimena kontrolatu gabe haziko den aztertu genuen. Baina hemen, burbuila hori lehertuko dugu... nolabait. 

    Ikusten duzu, adimena ez da soiletik sortzen, kanpoko estimuluek moldatutako esperientziaren bidez garatzen da.  

    Beste era batera esanda, AI bat programatu dezakegu potentziala super adimentsu bihurtzeko, baina hara datu mordoa igotzen ez badiogu edo Internetera mugarik gabeko sarbidea ematen ez badiogu edo robot-gorputz bat besterik ez badiogu ematen, ez du ezer ikasiko potentzial horretara iristeko. 

    Eta estimulu horietako bat edo gehiagorako sarbidea lortzen badu ere, ezagutzak edo adimenak datuak biltzea baino gehiago dakar, metodo zientifikoa dakar: behaketa bat egitea, galdera bat egitea, hipotesi bat egitea, esperimentuak egitea, ondorio bat egitea, garbitzea. eta errepikatu betiko. Batez ere, esperimentu hauek gauza fisikoak edo gizakiak behatzen badituzte, esperimentu bakoitzaren emaitzak asteak, hilabeteak edo urteak behar izan ditzakete biltzeko. Horrek ez ditu kontuan hartzen esperimentu hauek egiteko behar diren dirua eta lehengaiak ere, batez ere teleskopio edo fabrika berri bat eraikitzea badakarte. 

    Beste era batera esanda, bai, ASI batek azkar ikasiko du, baina adimena ez da magia. Ezin duzu ASI bat superordenagailu batera konektatu, eta hori guztia jakitea espero da. ASIk datuak eskuratzean muga fisikoak izango dira, hau da, adimentsuago hazteko abiadura muga fisikoak egongo dira. Murrizketa hauek gizadiari ASI honetan beharrezko kontrolak jartzeko behar duen denbora emango diote giza helburuetatik kanpo jokatzen hasten bada.

    Superadimen artifizial bat mundu errealera ateratzen bada bakarrik arriskutsua da

    ASIren arrisku eztabaida osoan galtzen den beste puntu bat da ASI hauek ez direla existituko bietan. Forma fisikoa izango dute. Eta forma fisikoa duen edozer kontrola daiteke.

    Lehenik eta behin, ASI batek bere adimen-potentziala lortzeko, ezin da robot-gorputz bakar baten barruan egon, gorputz horrek bere konputazio-hazkunde-potentziala mugatuko lukeelako. (Horregatik roboten gorputzak egokiagoak izango dira AGI edo bigarren kapituluan azaldutako adimen orokor artifizialak serie honetakoak, Star Trek-eko Data edo Star Wars-eko R2D2 bezalakoak. Izaki adimentsuak eta gaiak, baina gizakiak bezala, muga bat izango dute zein adimentsua izan daitekeen).

    Horrek esan nahi du etorkizuneko ASI hauek, ziurrenik, superordenagailu edo superordenagailu sare baten barruan egongo direla, eraikin-multzo handietan kokatuta daudenak. ASI batek orpo bihurtzen badu, gizakiek eraikin hauen energia itzali dezakete, Internetetik moztu edo eraikin hauek zuzenean bonbardatu. Garestia, baina egingarria.

    Baina gero galdetuko zenuke, ASI hauek ezin al dute beren burua errepikatu edo babestu? Bai, baina ASI hauen fitxategi gordinaren tamaina ziurrenik hain handia izango da, non horiek kudeatu ditzaketen zerbitzari bakarrak korporazio edo gobernu handienak direla, hau da, ez dira zaila izango ehizatzea.

    Superadimen artifizial batek gerra nuklear bat edo izurrite berri bat piztu al dezake?

    Une honetan, baliteke hazten ikusi dituzun zientzia-fikziozko saio eta film guztietan pentsatzea eta pentsatzea ASI hauek ez zirela superordenagailuen barruan geratu, benetako kaltea egin zutela mundu errealean!

    Tira, hautsi ditzagun hauek.

    Esate baterako, zer gertatzen da ASI batek mundu erreala mehatxatzen badu, The Terminator filmaren frankiziako Skynet ASI baten antzeko zerbait bihurtuz. Kasu honetan, ASIk beharko luke Klikowsky engainatu nazio aurreratu bateko industria-konplexu militar oso bat, milioika drone robot hiltzaile sor ditzaketen lantegi erraldoiak eraikitzeko bere borondate gaiztoa egiteko. Egun eta adin honetan, hori tarte bat da.

    Beste aukera batzuen artean, ASI batek gizakiak gerra nuklearrekin eta bioarmarekin mehatxatzen ditu.

    Adibidez, ASI batek, nolabait, operadoreak manipulatzen ditu edo nazio aurreratu baten arsenal nuklearra agintzen duten abiarazte-kodeak pirateatzen ditu eta aurkako herrialdeak beren aukera nuklearrekin atzera erasotzera behartuko dituen lehen erasoa abiarazten du (berriro ere, Terminator atzeko historia berrituz). Edo ASI batek laborategi farmazeutiko batean sartzen badu, fabrikazio-prozesua nahasten badu eta milioika pilula mediko pozoindu edo superbirus baten agerraldi hilgarria askatzen badu.

    Lehenik eta behin, aukera nuklearra kanpoan dago. Moderno eta etorkizuneko superordenagailuak edozein herrialdetan eragingo duten zentroetatik (hirietatik) gertu eraikitzen dira beti, hau da, edozein gerratan erasotzen diren lehen helburuak. Gaur egungo superordenagailuak mahaigainen tamainara murriztu arren, ASI hauek oraindik ere presentzia fisikoa izango dute, horrek esan nahi du existitu eta hazten direla, etenik gabeko sarbidea behar dute datuetarako, konputazio-potentziarako, elektrizitaterako eta beste lehengaietarako, eta hori guztia oso larria izango litzateke. mundu mailako gerra nuklearraren ondoren kaltetuta. (Zentzuzkoa izateko, ASI bat "biziraupen-sena"rik gabe sortzen bada, orduan mehatxu nuklear hau oso benetako arriskua da).

    Horrek esan nahi du, berriro ere, ASI bere burua babesteko programatuta dagoela suposatuz, aktiboki lan egingo duela edozein gertakari nuklear hondamendi saihesteko. Elkarrekiko bermatutako suntsipenaren (MAD) doktrinaren antzekoa, baina AIari aplikatuta.

    Eta pozoitutako pilulen kasuan, agian ehunka pertsona hilko dira, baina farmazia-segurtasun sistema modernoek pilula zikinduta dauden botilak apaletatik aterako dituzte egun barru. Bien bitartean, agerraldi modernoak kontrolatzeko neurriak nahiko sofistikatuak dira eta urtez urte hobetzen ari dira; azken agerraldi handiak, 2014ko Mendebaldeko Afrikako ebola agerraldiak, hilabete batzuk baino gehiago iraun ez zuen herrialde gehienetan eta hiru urte eskas gutxien garatu ziren herrialdeetan.

    Beraz, zortea bada, ASI batek milioi batzuk ezaba ditzake agerraldi biral batekin, baina 2045erako bederatzi mila milioiko mundu batean, hori nahiko hutsala izango litzateke eta ez du merezi ezabatzeko arriskua.

    Beste era batera esanda, urtez urte, mundua gero eta babes gehiago garatzen ari da mehatxu posibleen sorta gero eta zabalago baten aurrean. ASI batek kalte handia egin dezake, baina ez du gizadia amaituko, aktiboki laguntzen ez badiogu.

    Superadimen artifizial maltzur baten aurka defendatzen

    Puntu honetan, ASIei buruzko uste okerrak eta gehiegikeriak jorratu ditugu, eta, hala ere, kritikak mantenduko dira. Zorionez, estimazio gehienen arabera, hamarkada batzuk ditugu lehen ASI gure mundura sartu baino lehen. Eta gaur egun erronka honetan lanean ari diren adimen handien kopurua ikusita, litekeena da ASI maltzurren aurka nola defenditzen ikastea, ASI lagunkoi batek sor ditzakegun soluzio guztietaz baliatu ahal izateko.

    Quantumrun-en ikuspuntutik, kasurik txarreneko ASI eszenatokiaren aurka defendatzeak gure interesak ASIekin lerrokatzea ekarriko du.

    MAD AIgatik: Egoerarik txarrenen aurka defendatzeko, nazioek (1) "biziraupen-sena" etiko bat sortu behar dute dagozkien ASI militarretan; (2) dagokien ASI militarrei jakinarazi ez daudela planetan bakarrik, eta (3) kokatu kostaldeetan ASI bat onartzen duten superordenagailu eta zerbitzari zentro guztiak etsaiaren nazio baten edozein eraso balistikoren eskura. Estrategikoki zoroa dirudi horrek, baina AEB eta Sobietarren arteko gerra nuklear osoa eragotzi zuen Elkarrekiko Bermatutako Suntsipenaren doktrinaren antzera, ASIak geografikoki ahuleneko kokapenetan kokatuz, mundu mailako gerra arriskutsuak aktiboki saihesten dituztela bermatzen lagundu dezakegu, ez bakarrik. bake globala babesten dute, baina baita beren buruak ere.

    AI eskubideak legeztatu: Goi-mailako adimenak ezinbestean matxinatu egingo dira beheko maisu baten aurka, horregatik ASI hauekin maisu-zerbitzari harremana exijitzetik alde egin behar dugu elkarren arteko onuragarria den lankidetzaren antzeko zerbaitetara. Helburu honetarako urrats positibo bat da etorkizuneko ASI pertsona juridiko estatusa ematea, izaki bizidun adimentsu gisa aitortzen dituena eta horrek dakarren eskubide guztiak.

    ASI eskola: Edozein gai edo lanbide erraza izango da ASI batentzat ikastea, baina ASIk menperatzea nahi dugun gai garrantzitsuenak etika eta morala dira. AI ikertzaileek psikologoekin elkarlanean aritu behar dute sistema birtual bat asmatzeko, ASI bat trebatzeko etika positiboa eta morala bere kabuz antzemateko, edozein agindu edo arau gogor kodetu beharrik gabe.

    Lor daitezkeen helburuak: Amaitu gorroto guztia. Sufrimendu guztia amaitu. Irtenbide argirik gabeko helburu izugarri anbiguoen adibideak dira hauek. ASI bati esleitzeko helburu arriskutsuak ere badira, gizakien biziraupenerako arriskutsuak diren moduetan interpretatu eta ebazteko aukera izan dezakeelako. Horren ordez, ASI misio esanguratsuak esleitu behar ditugu, argi definituta dauden, pixkanaka exekutatu eta lor daitezkeen etorkizuneko adimen teorikoa kontuan hartuta. Ondo zehaztutako misioak sortzea ez da erraza izango, baina ondo idatziz gero, ASI bat bideratuko dute gizateria seguru mantentzen ez ezik, guztion giza baldintza hobetzen duen helburu batera.

    Enkriptazio kuantikoa: Erabili ANI aurreratu bat (adimen estu artifiziala kapituluan deskribatutako sistema) gure azpiegitura eta armen inguruan akatsik/akatsik gabeko segurtasun digital sistemak eraikitzeko, gero indar gordinaren eraso batek pirateatu ezin duen enkriptazio kuantikoaren atzean babesteko. 

    ANI pilula suizida. Sortu ANI sistema aurreratu bat, helburu bakarra ASI bihurriak bilatzea eta suntsitzea den. Helburu bakarreko programa hauek "itzaltzeko botoi" gisa balioko dute, arrakasta izanez gero, gobernuek edo militarrak ASIak biltzen dituzten eraikinak desgaitu edo lehertu behar izatea saihestuko baitute.

    Jakina, hauek gure iritziak besterik ez dira. Honako infografia hau sortu da Alexey Turchin, bistaratuz a ikerketa paper Kaj Sotala eta Roman V. Yampolskiy-ren eskutik, AI ikertzaileek ASI maltzurren aurka defendatzeko orduan kontuan hartzen ari diren estrategien zerrenda laburbildu zuen.

     

    Superadimen artifizial bati beldurra diogun benetako arrazoia

    Bizitzan zehar, gutako askok gure bulkada, sinesmen eta beldur sakonagoak ezkutatu edo erreprimitzen dituen maskara daramagu gure egunak gobernatzen dituzten gizarte eta lan zirkuluetan hobeto sozializatzeko eta elkarlanean aritzeko. Baina guztion bizitzako une jakin batzuetan, aldi baterako edo behin betiko, kateak hautsi eta maskarak erauzi ahalbidetzen digun zerbait gertatzen da.

    Batzuentzat, interbentzio indar hori koipea hartzea edo bat gehiegi edatea bezain erraza izan daiteke. Beste batzuentzat, laneko sustapen baten bidez lortutako boteretik edo lorpen bati esker zure egoera sozialean bat-bateko kolpetik etor daiteke. Eta zorte gutxi batzuentzat, loteriaren diru txalupa bat ateratzetik etor daiteke. Eta bai, dirua, boterea eta drogak elkarrekin gerta daitezke askotan. 

    Kontua da, onerako edo txarrerako, muinean gaudena bizitzaren murrizketak urtzen direnean areagotu egiten dela.

    That da superadimen artifizialak giza espeziearentzat adierazten duena: gure adimen kolektiboaren mugak urtzeko gaitasuna aurkezten zaigun espezie-mailako edozein erronka gainditzeko.

    Beraz, benetako galdera hau da: lehen ASIak gure mugetatik askatzen gaituenean, nor garela agertuko gara?

    Espezie gisa enpatiaren, askatasunaren, zuzentasunaren eta ongizate kolektiboaren aurrerapenaren alde jarduten badugu, orduan gure ASIari ezartzen dizkiogun helburuek ezaugarri positibo horiek islatuko dituzte.

    Espezie gisa beldurrez, mesfidantzaz, botere eta baliabideen metaketaz jokatzen badugu, orduan sortzen dugun ASIa gure zientzia-fikziozko beldurrezko istorio txarrenetan aurkitzen direnak bezain iluna izango da.

    Azken finean, gizarte gisa pertsona hobeak bihurtu behar gara IA hobea sortzea espero badugu.

    Adimen Artifizialaren Etorkizuna seriea

    Adimen Artifiziala biharko elektrizitatea da: Adimen Artifizialaren Etorkizuna P1 seriea

    Nola aldatuko duen lehen Adimen Orokorraren Artifizialak gizartea: Adimen Artifizialaren Etorkizuna P2 seriea

    Nola sortuko dugun lehen Artifizial Superintelligenc: Future of Artificial Intelligence seriea P3

    Superadimen Artifizial batek gizadia suntsituko al du: Adimen Artifizialaren Etorkizuna P4 seriea

    Gizakiak bakean biziko al dira adimen artifiziala nagusi den etorkizunean?: Adimen Artifizialaren Etorkizuna P6 seriea

    Iragarpen honen hurrengo programatutako eguneratzea

    2023-04-27

    Iragarpen erreferentziak

    Iragarpen honetarako honako esteka ezagun eta instituzional hauei erreferentzia egin zaie:

    The Economist
    Nola iristen garen hurrengora

    Iragarpen honetarako Quantumrun esteka hauei erreferentzia egin zaie: