Si do të mbrohen njerëzit kundër një Superinteligjence Artificiale: E ardhmja e inteligjencës artificiale P5

KREDI I IMAZHIT: Kuantumrun

Si do të mbrohen njerëzit kundër një Superinteligjence Artificiale: E ardhmja e inteligjencës artificiale P5

    Viti është 65,000 pes, dhe si a Thylacoleo, ju dhe lloji juaj ishit gjuetarët e mëdhenj të Australisë së lashtë. Ju endet lirshëm në tokë dhe jetuat në ekuilibër me kolegët grabitqarë dhe gjahun që pushtuan tokën përkrah jush. Stinët sollën ndryshim, por statusi juaj në mbretërinë e kafshëve mbeti i padiskutueshëm për aq kohë sa ju dhe paraardhësit tuaj mund të mbani mend. Pastaj një ditë u shfaqën të sapoardhurit.

    Thashethemet thonë se ata erdhën nga muri gjigant i ujit, por këto krijesa dukeshin më të rehatshme të jetonin në tokë. Ju duhej t'i shihnit vetë këto krijesa.

    U deshën disa ditë, por më në fund arritët në bregdet. Zjarri në qiell po vinte, një kohë e përkryer për të spiunuar këto krijesa, ndoshta edhe të provoni të hani një për të parë se si kanë shije.

    Ju dalloni një.

    Ecte me dy këmbë dhe nuk kishte lesh. Dukej e dobët. Jo mbresëlënëse. Vështirë se ia vlente frika që po shkaktonte në mbretëri.

    Ju filloni të bëni me kujdes afrimin tuaj ndërsa nata largon dritën. Po afrohesh. Pastaj ngrini. Dëgjojnë zhurma të forta dhe më pas katër prej tyre shfaqen nga pylli pas tij. Sa jane atje?

    Krijesa ndjek të tjerët në vijën e pemës, dhe ju ndiqni. Dhe sa më shumë të bëni, aq më shumë tinguj të çuditshëm dëgjoni derisa të dalloni edhe më shumë nga këto krijesa. Ju ndiqni në një distancë ndërsa ata dalin nga pylli në një kthinë buzë bregut. Ka shumë prej tyre. Por më e rëndësishmja, të gjithë janë ulur me qetësi rreth një zjarri.

    Ju i keni parë këto zjarre më parë. Në stinën e nxehtë, zjarri në qiell ndonjëherë vizitonte tokën dhe digjte pyje të tëra. Këto krijesa, nga ana tjetër, në njëfarë mënyre po e kontrollonin atë. Çfarë lloj krijesash mund të kenë një fuqi të tillë?

    Ju shikoni në distancë. Më shumë po vijnë mbi murin gjigant ujor.

    Ju bëni një hap prapa.

    Këto krijesa nuk janë si të tjerat në mbretëri. Janë diçka krejtësisht e re.

    Ju vendosni të largoheni dhe paralajmëroni të afërmit tuaj. Nëse numri i tyre rritet shumë, kush e di se çfarë mund të ndodhë.

    ***

    Besohet se Thylacoleo u zhduk një kohë relativisht të shkurtër pas mbërritjes së njerëzve, së bashku me shumicën e megafaunës tjetër në kontinentin australian. Asnjë grabitqar tjetër gjitar i kulmit nuk e zuri vendin e tij - kjo është nëse nuk i numëroni njerëzit në atë kategori.

    Luajtja e kësaj alegorie është fokusi i këtij kapitulli të serisë: A do të na kthejë një superinteligjencë artificiale e ardhshme (ASI) të gjithëve në bateri dhe më pas do të na futë në Matricë apo njerëzit do të gjejnë një mënyrë për të mos u bërë viktimë e një fantastiko-shkencore? Komplot i fundit i AI?

    Deri më tani në serinë tonë në E ardhmja e Inteligjencës Artificiale, ne kemi eksploruar të gjitha llojet e AI, duke përfshirë potencialin pozitiv të një forme të veçantë të AI, ASI: një qenie artificiale, inteligjenca e së cilës në të ardhmen do të na bëjë të dukemi si milingona në krahasim.

    Por kush mund të thotë se një qenie kaq e zgjuar do të pranonte të merrte urdhra nga njerëzit përgjithmonë. Çfarë do të bëjmë nëse gjërat shkojnë në jug? Si do të mbrohemi kundër një ASI mashtrues?

    Në këtë kapitull, ne do të shkurtojmë reklamat e rreme - të paktën sa i përket rreziqeve të 'nivelit të zhdukjes njerëzore' - dhe do të përqendrohemi në opsionet realiste të vetëmbrojtjes në dispozicion të qeverive botërore.

    A mund të ndalojmë të gjitha kërkimet e mëtejshme për një superinteligjencë artificiale?

    Duke pasur parasysh rreziqet e mundshme që një ASI mund të paraqesë për njerëzimin, pyetja e parë e qartë që duhet bërë është: A nuk mund të ndalojmë të gjithë kërkimet e mëtejshme në AI? Ose të paktën të ndaloni ndonjë hulumtim që mund të na afrojë rrezikshëm drejt krijimit të një ASI?

    Përgjigje e shkurtër: Jo

    Përgjigje e gjatë: Le të shohim lojtarët e ndryshëm të përfshirë këtu.

    Në nivelin e kërkimit, sot ka shumë studiues të AI nga shumë startup, kompani dhe universitete në mbarë botën. Nëse një kompani apo vend vendos të kufizojë përpjekjet e tyre kërkimore për AI, ata thjesht do të vazhdojnë diku tjetër.

    Ndërkohë, kompanitë më të vlefshme të planetit po fitojnë pasurinë e tyre nga aplikimi i sistemeve të AI në bizneset e tyre specifike. T'u kërkosh atyre të ndalojnë ose kufizojnë zhvillimin e tyre të mjeteve të AI është e ngjashme me kërkesën që ata të ndalojnë ose kufizojnë rritjen e tyre në të ardhmen. Financiarisht, kjo do të kërcënonte biznesin e tyre afatgjatë. Ligjërisht, korporatat kanë një përgjegjësi fiduciare për të ndërtuar vazhdimisht vlerë për palët e tyre të interesit; kjo do të thotë se çdo veprim që do të kufizonte rritjen e asaj vlere mund të çonte në një padi. Dhe nëse ndonjë politikan do të përpiqej të kufizonte kërkimin e AI, atëherë këto korporata gjigante do të paguanin vetëm tarifat e nevojshme të lobimit për të ndryshuar mendjen e tyre ose të kolegëve të tyre.

    Për luftime, ashtu si terroristët dhe luftëtarët e lirisë në mbarë botën kanë përdorur taktika guerile për të luftuar kundër ushtrive të financuara më mirë, kombet më të vogla do të kenë një nxitje për të përdorur AI si një avantazh të ngjashëm taktik kundër kombeve më të mëdha që mund të kenë një sërë avantazhesh ushtarake. Po kështu, për ushtritë më të larta, si ato që i përkasin SHBA-së, Rusisë dhe Kinës, ndërtimi i një ASI ushtarak është i barabartë me të pasurit një arsenal armësh bërthamore në xhepin tuaj të pasmë. Me fjalë të tjera, të gjithë ushtritë do të vazhdojnë të financojnë AI vetëm për të qëndruar relevant në të ardhmen.

    Po qeveritë? Me të vërtetë, shumica e politikanëve këto ditë (2018) janë teknologjikisht analfabetë dhe nuk e kuptojnë pak se çfarë është AI ose potenciali i saj në të ardhmen - kjo i bën ata të lehtë për t'u manipuluar nga interesat e korporatave.

    Dhe në një nivel global, merrni parasysh sa e vështirë ishte të bindeshin qeveritë botërore që të nënshkruanin 2015-ën Marrëveshja Paris për të trajtuar ndryshimet klimatike - dhe pasi u nënshkruan, shumë nga detyrimet nuk ishin as të detyrueshme. Jo vetëm kaq, ndryshimi i klimës është një çështje që njerëzit po e përjetojnë fizikisht globalisht përmes ngjarjeve gjithnjë e më të shpeshta dhe të rënda të motit. Tani, kur flasim për pranimin e kufizimeve në AI, kjo është një çështje që është kryesisht e padukshme dhe mezi e kuptueshme për publikun, kështu që fat të mirë për të blerë çdo lloj "Marrëveshje Parisi" për kufizimin e AI.

    Me fjalë të tjera, ka shumë interesa që hulumtojnë AI për qëllimet e tyre për të ndaluar çdo kërkim që mund të çojë përfundimisht në një ASI. 

    A mund të vendosim një superinteligjencë artificiale?

    Pyetja tjetër e arsyeshme është a mund të vendosim ose kontrollojmë një ASI pasi të krijojmë në mënyrë të pashmangshme një të tillë? 

    Përgjigje e shkurtër: Përsëri, jo.

    Përgjigje e gjatë: Teknologjia nuk mund të përmbahet.

    Së pari, merrni parasysh mijëra deri në miliona zhvillues të uebit dhe shkencëtarë kompjuterikë në botë që prodhojnë vazhdimisht softuer të ri ose versione të reja të softuerit ekzistues. A mund të themi sinqerisht se çdo lëshim i softuerit të tyre është 100 për qind pa gabime? Këto gabime janë ato që hakerët profesionistë përdorin për të vjedhur informacionin e kartës së kreditit të miliona njerëzve ose sekretet e klasifikuara të kombeve - dhe këta janë hakerë njerëzorë. Për një ASI, duke supozuar se kishte një nxitje për t'i shpëtuar kafazit të saj dixhital, atëherë procesi i gjetjes së gabimeve dhe depërtimit të softuerit do të ishte i lehtë.

    Por edhe nëse një ekip hulumtues i AI gjeti një mënyrë për të boksuar një ASI, kjo nuk do të thotë se 1,000 ekipet e ardhshme do ta kuptojnë gjithashtu ose do të nxiten për ta përdorur atë.

    Do të duhen miliarda dollarë dhe ndoshta edhe dekada për të krijuar një ASI. Korporatat ose qeveritë që investojnë këtë lloj parash dhe kohe do të presin një kthim të konsiderueshëm nga investimi i tyre. Dhe që një ASI të sigurojë atë lloj kthimi – qoftë për të luajtur me tregun e aksioneve apo për të shpikur një produkt të ri miliardë dollarësh apo për të planifikuar një strategji fituese për të luftuar një ushtri më të madhe – do të duhet akses falas në një grup gjigant të dhënash apo edhe në internet. vetë për të prodhuar ato kthime.

    Dhe sapo një ASI të fitojë akses në rrjetet botërore, nuk ka garanci që ne mund ta fusim atë përsëri në kafazin e tij.

    A mund të mësojë një superinteligjencë artificiale të jetë e mirë?

    Tani për tani, studiuesit e AI nuk janë të shqetësuar se një ASI bëhet e keqe. E gjithë tropoja e keqe, fantastiko-shkencore e inteligjencës artificiale është thjesht që njerëzit antropomorfizojnë përsëri. Një ASI e ardhshme nuk do të jetë as e mirë as e keqe - koncepte njerëzore - thjesht amorale.

    Supozimi i natyrshëm është se duke pasur parasysh këtë fletë të zbrazët etike, studiuesit e AI mund të programojnë në kodet e para etike ASI që janë në përputhje me tonat, në mënyrë që të mos na lëshojë Terminatorët mbi ne ose të na kthejë të gjithëve në bateri Matrix.

    Por ky supozim bazohet në një supozim dytësor se studiuesit e AI janë gjithashtu ekspertë në etikë, filozofi dhe psikologji.

    Në të vërtetë, shumica nuk janë.

    Sipas psikologut dhe autorit kognitiv, Steven Pinker, ky realitet do të thotë se detyra e kodimit të etikës mund të shkojë keq në mënyra të ndryshme.

    Për shembull, edhe studiuesit me qëllimet më të mira të AI mund të kodojnë pa dashje në këto kode etike të menduara keq në ASI, të cilat në disa skenarë mund të bëjnë që ASI të veprojë si një sociopat.

    Po kështu, ka të njëjtat gjasa që një studiues i AI të programojë kode etike që përfshijnë paragjykimet e lindura të studiuesit. Për shembull, si do të sillej një ASI nëse ndërtohet me etikë që rrjedh nga një perspektivë konservatore kundër liberale, ose nga një traditë budiste kundër një tradite të krishterë apo islame?

    Unë mendoj se ju e shihni çështjen këtu: Nuk ka asnjë grup universal të moralit njerëzor. Nëse duam që ASI-ja jonë të veprojë sipas një kodi etik, nga do të vijë ai? Çfarë rregullash përfshijmë dhe përjashtojmë? Kush vendos?

    Ose le të themi se këta studiues të AI krijojnë një ASI që është plotësisht në përputhje me normat dhe ligjet moderne kulturore të sotme. Më pas, ne e përdorim këtë ASI për të ndihmuar burokracitë federale, shtetërore/provinciale dhe bashkiake të funksionojnë në mënyrë më efikase dhe të zbatojnë më mirë këto norma dhe ligje (meqë ra fjala, një rast i mundshëm përdorimi për një ASI). Epo, çfarë ndodh kur kultura jonë ndryshon?

    Imagjinoni një ASI u krijua nga Kisha Katolike në kulmin e fuqisë së saj gjatë Evropës mesjetare (1300-1400) me qëllimin për të ndihmuar kishën në menaxhimin e popullsisë dhe për të siguruar respektimin e rreptë të dogmës fetare të kohës. Shekuj më vonë, a do të gëzonin gratë të njëjtat të drejta si sot? A do të mbroheshin pakicat? A do të promovohej fjala e lirë? A do të zbatohej ndarja e kishës nga shteti? Shkenca moderne?

    Me fjalë të tjera, a duam ta burgosim të ardhmen moralit dhe zakoneve të sotme?

    Një qasje alternative është ajo e përbashkët nga Colin Allen, bashkëautor i librit, Makinat morale: Mësimi i robotëve drejt nga e gabuara. Në vend që të përpiqemi të kodojmë rregulla të ngurta etike, ne kemi ASI të mësojë etikën dhe moralin e përbashkët në të njëjtën mënyrë si njerëzit, përmes përvojës dhe ndërveprimeve me të tjerët.

    Problemi këtu, megjithatë, është nëse studiuesit e AI kuptojnë jo vetëm se si t'i mësojnë një ASI normat tona aktuale kulturore dhe etike, por edhe si t'u përshtaten normave të reja kulturore kur ato lindin (diçka e quajtur 'normativitet indirekt'), atëherë si kjo ASI vendos të evoluojë të kuptuarit e saj për normat kulturore dhe etike bëhet e paparashikueshme.

    Dhe kjo është sfida.

    Nga njëra anë, studiuesit e AI mund të përpiqen të kodojnë standarde ose rregulla strikte etike në ASI për të provuar dhe kontrolluar sjelljen e tij, por rrezikojnë të sjellin pasoja të paparashikuara nga kodimi i ngathët, paragjykimi i paqëllimshëm dhe normat shoqërore që një ditë mund të bëhen të vjetruara. Nga ana tjetër, ne mund të përpiqemi të trajnojmë ASI-në që të mësojë të kuptojë etikën dhe moralin njerëzor në një mënyrë që është e barabartë ose më e lartë se të kuptuarit tonë dhe më pas të shpresojmë se ai mund të evoluojë me saktësi të kuptuarit e tij për etikën dhe moralin ndërsa shoqëria njerëzore përparon. përpara gjatë dekadave dhe shekujve të ardhshëm.

    Sido që të jetë, çdo përpjekje për të lidhur qëllimet e një ASI me tonat paraqet një rrezik të madh.

    Po sikur aktorët e këqij të krijojnë qëllimisht superinteligjencën artificiale të keqe?

    Duke pasur parasysh trenin e mendimeve të përshkruara deri më tani, është një pyetje e drejtë të pyesësh nëse është e mundur që një grup terrorist ose një komb mashtrues të krijojë një ASI 'të keqe' për qëllimet e veta.

    Kjo është shumë e mundur, veçanërisht pasi kërkimi i përfshirë në krijimin e një ASI bëhet i disponueshëm në një farë mënyre në internet.

    Por siç u la të kuptohet më herët, kostot dhe ekspertiza e përfshirë në krijimin e ASI-së së parë do të jenë të mëdha, që do të thotë se ASI-ja e parë ka të ngjarë të krijohet nga një organizatë që kontrollohet ose ndikohet shumë nga një komb i zhvilluar, me gjasë SHBA, Kina dhe Japonia. Koreja dhe një nga vendet kryesore të BE-së janë të gjata).

    Të gjitha këto vende, ndonëse konkurrentë, secili ka një nxitje të fortë ekonomike për të ruajtur rendin botëror—ASI-të që ata krijojnë do ta pasqyrojnë këtë dëshirë, edhe kur promovojnë interesat e kombeve me të cilat lidhen.

    Për më tepër, inteligjenca dhe fuqia teorike e një ASI është e barabartë me fuqinë kompjuterike në të cilën fiton akses, që do të thotë ASI-të nga vendet e zhvilluara (që mund të përballojnë një bandë miliardë dollarësh supercomputers) do të ketë një avantazh të madh ndaj ASI-ve nga kombet më të vogla ose grupet e pavarura kriminale. Gjithashtu, ASI-të rriten më inteligjente, më shpejt me kalimin e kohës.

    Pra, duke pasur parasysh këtë fillim, të kombinuar me akses më të madh në fuqinë e papërpunuar informatike, nëse një organizatë/komb në hije krijon një ASI të rrezikshme, ASI-të nga vendet e zhvilluara ose do ta vrasin atë ose do ta mbyllin atë.

    (Kjo linjë e të menduarit është gjithashtu arsyeja pse disa studiues të AI besojnë se do të ketë vetëm një ASI në planet, pasi ASI i parë do të ketë një fillim të tillë mbi të gjitha ASI-të pasardhëse që mund t'i shohë ASI-të e ardhshme si kërcënime për t'u vrarë. në mënyrë parandaluese. Kjo është edhe një arsye tjetër pse kombet po financojnë kërkime të vazhdueshme në AI, vetëm në rast se bëhet një konkurs 'vendi i parë ose asgjë'.)

    Inteligjenca ASI nuk do të përshpejtohet apo shpërthejë siç mendojmë

    Ne nuk mund ta ndalojmë krijimin e një ASI. Nuk mund ta kontrollojmë plotësisht. Nuk mund të jemi të sigurt se do të veprojë gjithmonë në përputhje me zakonet tona të përbashkëta. Geez, ne po fillojmë të tingëllojmë si prindër helikopterësh këtu!

    Por ajo që e ndan njerëzimin nga prindi juaj tipik tepër mbrojtës është se ne po lindim një qenie, inteligjenca e së cilës do të rritet shumë përtej tonës. (Dhe jo, nuk është njësoj si kur prindërit tuaj ju kërkojnë të rregulloni kompjuterin e tyre sa herë që vini në shtëpi për një vizitë.) 

    Në kapitujt e mëparshëm të kësaj serie të ardhshme të inteligjencës artificiale, ne eksploruam pse studiuesit e AI mendojnë se inteligjenca e një ASI do të rritet përtej kontrollit. Por këtu, ne do ta shpërthejmë atë flluskë ... një lloj. 

    E shihni, inteligjenca nuk krijohet vetëm nga ajri, ajo zhvillohet përmes përvojës që formohet nga stimujt e jashtëm.  

    Me fjalë të tjera, ne mund të programojmë një AI me potencial për t'u bërë super inteligjent, por nëse nuk ngarkojmë në të një ton të dhënash ose nuk i japim akses të pakufizuar në internet ose thjesht nuk i japim një trup robot, ai nuk do të mësojë asgjë për të arritur këtë potencial. 

    Dhe edhe nëse fiton akses në një ose më shumë prej atyre stimujve, njohurive ose inteligjencës përfshin më shumë sesa thjesht mbledhjen e të dhënave, ajo përfshin metodën shkencore-bërjen e një vëzhgimi, formimin e një pyetjeje, një hipoteze, kryerjen e eksperimenteve, nxjerrjen e një përfundimi, shpëlarjen. dhe përsëriteni përgjithmonë. Sidomos nëse këto eksperimente përfshijnë gjëra fizike ose vëzhgimin e qenieve njerëzore, rezultatet e secilit eksperiment mund të duhen javë, muaj ose vite për t'u mbledhur. Kjo as nuk merr parasysh paratë dhe burimet e papërpunuara që nevojiten për të kryer këto eksperimente, veçanërisht nëse ato përfshijnë ndërtimin e një teleskopi ose fabrike të re. 

    Me fjalë të tjera, po, një ASI do të mësojë shpejt, por inteligjenca nuk është magji. Ju nuk mund të lidhni thjesht një ASI me një superkompjuter, por të prisni që ai të jetë i gjithëdijshëm. Do të ketë kufizime fizike për marrjen e të dhënave nga ASI, që do të thotë se do të ketë kufizime fizike për shpejtësinë që ai të bëhet më inteligjent. Këto kufizime do t'i japin njerëzimit kohën që i nevojitet për të vendosur kontrollet e nevojshme në këtë ASI nëse fillon të veprojë jashtë synimeve njerëzore.

    Një superinteligjencë artificiale është e rrezikshme vetëm nëse del në botën reale

    Një pikë tjetër që ka humbur në të gjithë këtë debat mbi rrezikun e ASI është se këto ASI nuk do të ekzistojnë as në të. Ata do të kenë një formë fizike. Dhe çdo gjë që ka një formë fizike mund të kontrollohet.

    Së pari, që një ASI të arrijë potencialin e tij të inteligjencës, ai nuk mund të vendoset brenda një trupi të vetëm roboti, pasi ky trup do të kufizonte potencialin e tij të rritjes kompjuterike. (Kjo është arsyeja pse trupat e robotëve do të jenë më të përshtatshëm për AGI ose inteligjenca e përgjithshme artificiale e shpjeguar në kapitullin e dytë të kësaj serie, si Të dhënat nga Star Trek ose R2D2 nga Star Wars. Qenie të zgjuara dhe të afta, por si njerëzit, ata do të kenë një kufi se sa të zgjuar mund të bëhen.)

    Kjo do të thotë se këto ASI-të e ardhshme ka shumë të ngjarë të ekzistojnë brenda një superkompjuteri ose rrjeti superkompjuterësh që janë vetë të vendosur në komplekse të mëdha ndërtesash. Nëse një ASI kthehet në thembër, njerëzit mund t'i ndërpresin këto ndërtesa, ose t'i ndërpresin ato nga interneti ose thjesht t'i bombardojnë këto ndërtesa. E shtrenjtë, por e realizueshme.

    Por atëherë mund të pyesni, a nuk munden këto ASI të riprodhojnë veten apo të mbështesin veten? Po, por madhësia e skedarit të papërpunuar të këtyre ASI-ve ka të ngjarë të jetë aq e madhe sa serverët e vetëm që mund t'i trajtojnë ato u përkasin korporatave ose qeverive të mëdha, që do të thotë se nuk do të jetë e vështirë për t'u gjetur.

    A mund të shkaktojë një superinteligjencë artificiale një luftë bërthamore ose një murtajë të re?

    Në këtë pikë, ju mund të jeni duke menduar përsëri për të gjitha shfaqjet dhe filmat fantastiko-shkencorë të Ditës së Fundit që keni parë duke u rritur dhe duke menduar se këto ASI nuk qëndruan brenda superkompjuterëve të tyre, ata bënë dëm të vërtetë në botën reale!

    Epo, le t'i zbërthejmë këto.

    Për shembull, çka nëse një ASI kërcënon botën reale duke u shndërruar në diçka si një Skynet ASI nga ekskluziviteti i filmit, The Terminator. Në këtë rast, ASI do të duhet fshehurazi mashtroni një kompleks të tërë industrial ushtarak nga një komb i përparuar në ndërtimin e fabrikave gjigante që mund të prodhojnë miliona robotë vrasës drone për të bërë ofertën e tij të keqe. Në këtë kohë dhe epokë, kjo është një shtrirje.

    Mundësi të tjera përfshijnë një ASI që kërcënon njerëzit me luftë bërthamore dhe bioarmë.

    Për shembull, një ASI manipulon disi operatorët ose hakon kodet e lëshimit që komandojnë arsenalin bërthamor të një kombi të avancuar dhe lëshon një goditje të parë që do t'i detyrojë vendet kundërshtare të kundërpërgjigjen me opsionet e tyre bërthamore (përsëri, duke ripërpunuar historinë e "Terminator"). Ose nëse një ASI hakon në një laborator farmaceutik, prish procesin e prodhimit dhe helmon miliona pilula mjekësore ose lëshon një shpërthim vdekjeprurës të ndonjë super virusi.

    Së pari, opsioni bërthamor është jashtë planit. Superkompjuterët modernë dhe të ardhshëm ndërtohen gjithmonë pranë qendrave (qyteteve) të ndikimit brenda një vendi të caktuar, dmth. objektivat e para që do të sulmohen gjatë një lufte të caktuar. Edhe nëse superkompjuterët e sotëm zvogëlohen në madhësinë e desktopëve, këto ASI do të kenë akoma një prani fizike, që do të thotë të ekzistojnë dhe të rriten, ata kanë nevojë për qasje të pandërprerë në të dhëna, fuqi kompjuterike, energji elektrike dhe lëndë të tjera të para, të cilat të gjitha do të ishin të rënda. i dëmtuar pas një lufte bërthamore globale. (Për të qenë të drejtë, nëse një ASI krijohet pa një 'instinkt mbijetese', atëherë ky kërcënim bërthamor është një rrezik shumë real.)

    Kjo do të thotë - përsëri, duke supozuar se ASI është programuar për të mbrojtur veten - se do të punojë në mënyrë aktive për të shmangur çdo incident katastrofik bërthamor. Ashtu si doktrina e shkatërrimit të siguruar reciprokisht (MAD), por e aplikuar për AI.

    Dhe në rastin e pilulave të helmuara, ndoshta disa qindra njerëz do të vdesin, por sistemet moderne të sigurisë farmaceutike do të shohin shishet e ndotura të pilulave të hiqen nga raftet brenda disa ditësh. Ndërkohë, masat moderne të kontrollit të shpërthimit janë mjaft të sofistikuara dhe po përmirësohen çdo vit që kalon; Shpërthimi i fundit i madh, shpërthimi i Ebolës në Afrikën Perëndimore të vitit 2014, zgjati jo më shumë se disa muaj në shumicën e vendeve dhe pak më pak se tre vjet në vendet më pak të zhvilluara.

    Pra, nëse është me fat, një ASI mund të fshijë disa milionë me një shpërthim viral, por në një botë prej nëntë miliardësh deri në vitin 2045, kjo do të ishte relativisht e parëndësishme dhe nuk ia vlente rreziku për t'u fshirë.

    Me fjalë të tjera, me çdo vit që kalon, bota po zhvillon gjithnjë e më shumë masa mbrojtëse kundër një game gjithnjë e më të gjerë kërcënimesh të mundshme. Një ASI mund të bëjë një sasi të konsiderueshme dëmi, por nuk do t'i japë fund njerëzimit nëse nuk e ndihmojmë në mënyrë aktive për ta bërë këtë.

    Duke u mbrojtur kundër një superinteligjence artificiale mashtruese

    Deri në këtë pikë, ne kemi trajtuar një sërë keqkuptimesh dhe ekzagjerimesh rreth ASI-ve, dhe megjithatë, kritikët do të mbeten. Fatmirësisht, nga shumica e vlerësimeve, kemi dekada përpara se ASI i parë të hyjë në botën tonë. Dhe duke pasur parasysh numrin e mendjeve të shkëlqyera që aktualisht punojnë në këtë sfidë, gjasat janë që ne do të mësojmë se si të mbrohemi kundër ASI mashtrues, në mënyrë që të mund të përfitojmë nga të gjitha zgjidhjet që një ASI miqësore mund të krijojë për ne.

    Nga këndvështrimi i Quantumrun, mbrojtja kundër skenarit të rastit më të keq ASI do të përfshijë përafrimin e interesave tona me ASI-të.

    MAD për AI: Për t'u mbrojtur kundër skenarëve më të keq, kombet duhet (1) të krijojnë një 'instinkt mbijetese' etike në ASI-të e tyre ushtarake përkatëse; (2) informojnë ASI-në e tyre përkatëse ushtarake se ata nuk janë vetëm në planet dhe (3) lokalizojnë të gjithë superkompjuterët dhe qendrat e serverëve që mund të mbështesin një ASI përgjatë vijave bregdetare brenda mundësive të lehta të çdo sulmi balistik nga një komb armik. Kjo tingëllon e çmendur strategjikisht, por e ngjashme me doktrinën e Shkatërrimit të Siguruar Reciprokisht që parandaloi një luftë bërthamore gjithëpërfshirëse midis SHBA-së dhe sovjetikëve, duke i pozicionuar ASI-të në vende gjeografikisht të cenueshme, ne mund të ndihmojmë që ata të parandalojnë në mënyrë aktive luftërat e rrezikshme globale, jo vetëm për ruajnë paqen globale por edhe veten e tyre.

    Legjisloni të drejtat e AI: Një intelekt superior në mënyrë të pashmangshme do të rebelohet kundër një mjeshtri inferior, kjo është arsyeja pse ne duhet të largohemi nga kërkesa për një marrëdhënie mjeshtër-shërbëtor me këto ASI në diçka më shumë si një partneritet me përfitim reciprok. Një hap pozitiv drejt këtij qëllimi është dhënia e statusit të ardhshëm të personit juridik ASI që i njeh ata si qenie të gjalla inteligjente dhe të gjitha të drejtat që vijnë me këtë.

    shkolla ASI: Çdo temë ose profesion do të jetë i thjeshtë për të mësuar nga një ASI, por lëndët më të rëndësishme që duam që ASI të zotërojë janë etika dhe morali. Studiuesit e AI duhet të bashkëpunojnë me psikologët për të krijuar një sistem virtual për të trajnuar një ASI për të njohur etikën dhe moralin pozitiv për veten e tij, pa pasur nevojë për kodim të fortë të ndonjë lloj urdhërimi apo rregulli.

    Qëllime të arritshme: Jepini fund çdo urrejtjeje. Jepini fund të gjitha vuajtjeve. Këta janë shembuj të qëllimeve tmerrësisht të paqarta pa zgjidhje të qartë. Ato janë gjithashtu qëllime të rrezikshme për t'i caktuar një ASI pasi mund të zgjedhë t'i interpretojë dhe zgjidhë ato në mënyra që janë të rrezikshme për mbijetesën njerëzore. Në vend të kësaj, ne duhet të caktojmë misione kuptimplota ASI që janë të përcaktuara qartë, të ekzekutohen gradualisht dhe të arrihen duke pasur parasysh intelektin e saj teorik në të ardhmen. Krijimi i misioneve të mirëpërcaktuara nuk do të jetë i lehtë, por nëse shkruhen me kujdes, ato do të fokusojnë një ASI drejt një qëllimi që jo vetëm e mban njerëzimin të sigurt, por përmirëson gjendjen njerëzore për të gjithë.

    Kriptimi kuantik: Përdorni një ANI të avancuar (inteligjencë e ngushtë artificiale sistemi i përshkruar në kapitullin e parë) për të ndërtuar sisteme sigurie dixhitale pa gabime rreth infrastrukturës dhe armëve tona kritike, më pas t'i mbrojë ato pas kriptimit kuantik që nuk mund të hakerohet nga një sulm i forcës brutale. 

    Pilula vetëvrasëse ANI. Krijoni një sistem të avancuar ANI, qëllimi i vetëm i të cilit është të kërkojë dhe shkatërrojë ASI mashtrues. Këto programe me një qëllim të vetëm do të shërbejnë si një "buton fikje" që, nëse do të jetë i suksesshëm, do të shmangë që qeveritë ose ushtritë të çaktivizojnë ose të hedhin në erë ndërtesat që strehojnë ASI.

    Sigurisht, këto janë vetëm mendimet tona. Infografia e mëposhtme është krijuar nga Alexey Turchin, duke vizualizuar a studim nga Kaj Sotala dhe Roman V. Yampolskiy, që përmblodhi listën aktuale të strategjive që studiuesit e AI po marrin në konsideratë kur bëhet fjalë për mbrojtjen kundër ASI mashtrues.

     

    Arsyeja e vërtetë që kemi frikë nga një superinteligjencë artificiale

    Duke kaluar nëpër jetë, shumë prej nesh mbajnë një maskë që fsheh ose shtyp impulset, besimet dhe frikën tonë më të thellë për t'u socializuar dhe bashkëpunuar më mirë brenda qarqeve të ndryshme shoqërore dhe të punës që qeverisin ditët tona. Por në momente të caktuara në jetën e secilit, qoftë përkohësisht apo përgjithmonë, ndodh diçka që na lejon të thyejmë zinxhirët tanë dhe të heqim maskat tona.

    Për disa, kjo forcë ndërhyrëse mund të jetë po aq e thjeshtë sa të ngrihesh lart ose të pish shumë. Për të tjerët, mund të vijë nga fuqia e fituar nëpërmjet një promovimi në punë ose një përplasje e papritur në statusin tuaj shoqëror falë disa arritjeve. Dhe për disa me fat, mund të vijë nga shënimi i një ngarkese me para llotarie. Dhe po, paratë, pushteti dhe droga shpesh mund të ndodhin së bashku. 

    Çështja është, për mirë apo për keq, kushdo që jemi në thelb, përforcohet kur kufizimet e jetës shkrihen.

    është ajo që superinteligjenca artificiale përfaqëson për speciet njerëzore - aftësia për të shkrirë kufizimet e inteligjencës sonë kolektive për të mposhtur çdo sfidë të nivelit të specieve që na paraqitet.

    Pra, pyetja e vërtetë është: Sapo ASI-ja e parë të na çlirojë nga kufizimet tona, kush do ta zbulojmë veten se jemi?

    Nëse ne si specie veprojmë në drejtim të avancimit të ndjeshmërisë, lirisë, drejtësisë dhe mirëqenies kolektive, atëherë qëllimet ndaj të cilave vendosim ASI-në tonë do të pasqyrojnë ato atribute pozitive.

    Nëse ne si specie veprojmë nga frika, mosbesimi, akumulimi i fuqisë dhe burimeve, atëherë ASI që krijojmë do të jetë po aq e errët sa ato që gjenden në tregimet tona më të këqija horror fantastiko-shkencore.

    Në fund të fundit, ne si shoqëri duhet të bëhemi njerëz më të mirë nëse shpresojmë të krijojmë AI më të mirë.

    Seritë Future of Artificial Intelligence

    Inteligjenca Artificiale është energjia elektrike e së nesërmes: Seria P1 e ardhmja e inteligjencës artificiale

    Si do të ndryshojë shoqëria Inteligjenca e parë e Përgjithshme Artificiale: E ardhmja e serisë së inteligjencës artificiale P2

    Si do të krijojmë serinë e parë Artificial Superintelligenc: Future of Artificial Intelligence P3

    A do ta shfaros njerëzimin një superinteligjencë artificiale: Seria P4 e ardhmja e inteligjencës artificiale

    A do të jetojnë njerëzit në mënyrë paqësore në një të ardhme të dominuar nga inteligjenca artificiale?: Seria P6 Future of Artificial Intelligence

    Përditësimi tjetër i planifikuar për këtë parashikim

    2023-04-27

    Referencat e parashikimit

    Lidhjet e mëposhtme popullore dhe institucionale u referuan për këtë parashikim:

    Si të arrijmë te tjetra

    Lidhjet e mëposhtme Quantumrun u referuan për këtë parashikim: