Kā cilvēki aizstāvēsies pret mākslīgo superintelektu: mākslīgā intelekta nākotne P5

ATTĒLA KREDĪTS: Quantumrun

Kā cilvēki aizstāvēsies pret mākslīgo superintelektu: mākslīgā intelekta nākotne P5

    Gads ir 65,000 XNUMX p.m.ē., un kā a Thylacoleo, tu un tavi bijāt lielie senās Austrālijas mednieki. Jūs brīvi klejojāt pa zemi un dzīvojāt līdzsvarā ar citiem plēsējiem un laupījumu, kas ieņēma zemi līdzās jums. Gadalaiki ienesa pārmaiņas, taču jūsu statuss dzīvnieku valstībā palika neapšaubāms tik ilgi, cik jūs un jūsu senči to atcerējās. Tad kādu dienu parādījās jaunpienācēji.

    Klīst baumas, ka viņi ieradušies no milzīgās ūdens sienas, taču šīm radībām šķita ērtāk dzīvot uz sauszemes. Šīs radības bija jāredz pašam.

    Pagāja dažas dienas, bet jūs beidzot tikāt līdz krastam. Uguns debesīs norima, un bija ideāls laiks, lai izspiegotu šīs radības, varbūt pat mēģinātu kādu apēst, lai redzētu, kā tās garšo.

    Jūs pamanāt vienu.

    Tā staigāja uz divām kājām un tai nebija kažokādas. Tas izskatījās vājš. Neiespaidīgs. Diez vai ir vērts baidīties, ko tas izraisīja valstībā.

    Tu sāc rūpīgi tuvoties, kad nakts aizdzen gaismu. Tu tuvojies. Tad tu sasalsi. Atskan skaļi trokšņi, un tad aiz meža parādās vēl četri no tiem. Cik tādu ir?

    Radījums seko pārējiem koka līnijā, un jūs sekojat. Un jo vairāk jūs darāt, jo dīvainākas skaņas jūs dzirdat, līdz pamanāt vēl vairāk šo radījumu. Jūs sekojat tālumā, kad viņi iziet no meža krasta izcirtumā. Tādu ir daudz. Bet vēl svarīgāk, viņi visi mierīgi sēž pie ugunskura.

    Jūs jau esat redzējuši šos ugunsgrēkus. Karstajā sezonā uguns debesīs dažreiz apmeklēja zemi un nodedzināja veselus mežus. No otras puses, šīs radības kaut kā to kontrolēja. Kādiem radījumiem var būt šāds spēks?

    Tu skaties tālumā. Vairāk nāk pāri milzu ūdens sienai.

    Tu sper soli atpakaļ.

    Šīs radības nav tādas kā citas valstībā. Tie ir kaut kas pilnīgi jauns.

    Jūs nolemjat doties prom un brīdināt savus radiniekus. Ja viņu skaits pieaugs pārāk liels, kas zina, kas varētu notikt.

    ***

    Tiek uzskatīts, ka Thylacoleo izmira salīdzinoši neilgi pēc cilvēku ierašanās kopā ar lielāko daļu pārējās megafaunas Austrālijas kontinentā. Neviens cits virsotnes zīdītāju plēsējs neaizņēma to — tas ir, ja vien šajā kategorijā neieskaita cilvēkus.

    Šīs sērijas nodaļas uzmanības centrā ir šī alegorija: vai nākotnes mākslīgais superinteliģents (ASI) mūs visus pārvērtīs akumulatoros un pēc tam pievienos Matricai, vai arī cilvēki izdomās veidu, kā nekļūt par zinātniskās fantastikas upuri? AI pastardienas sižets?

    Līdz šim mūsu sērijā par Mākslīgā intelekta nākotne, mēs esam izpētījuši visu veidu AI, tostarp pozitīvo potenciālu, ko sniedz noteikta AI forma, ASI: mākslīga būtne, kuras nākotnes intelekts liks mums izskatīties kā skudras.

    Bet kurš gan lai saka, ka tik gudra būtne pieņemtu cilvēku pasūtījumus uz visiem laikiem. Ko mēs darīsim, ja lietas virzīsies uz dienvidiem? Kā mēs aizstāvēsimies pret negodīgu ASI?

    Šajā nodaļā mēs pārtrauksim viltus ažiotāžu — vismaz attiecībā uz “cilvēka izzušanas līmeņa” briesmām – un koncentrēsimies uz reālistiskām pašaizsardzības iespējām, kas pieejamas pasaules valdībām.

    Vai mēs varam pārtraukt visus turpmākos pētījumus par mākslīgo superintelektu?

    Ņemot vērā iespējamos riskus, ko ASI varētu radīt cilvēcei, pirmais acīmredzamais jautājums, kas jāuzdod, ir šāds: vai mēs nevaram vienkārši pārtraukt visu turpmāko AI izpēti? Vai vismaz aizliegt jebkuru pētījumu, kas var mūs bīstami pietuvināt ASI izveidei?

    Īsā atbilde: nē.

    Garā atbilde: Apskatīsim dažādus šeit iesaistītos spēlētājus.

    Pētniecības līmenī mūsdienās ir pārāk daudz AI pētnieku no pārāk daudziem jaunizveidotiem uzņēmumiem, uzņēmumiem un universitātēm visā pasaulē. Ja kāds uzņēmums vai valsts nolemtu ierobežot savus AI pētniecības centienus, tie vienkārši turpinātu citur.

    Tikmēr planētas vērtīgākie uzņēmumi pelna savu bagātību, izmantojot AI sistēmas saviem konkrētajiem uzņēmumiem. Lūgt viņiem apturēt vai ierobežot AI rīku izstrādi ir līdzvērtīgi lūgumam apturēt vai ierobežot savu turpmāko izaugsmi. Finansiāli tas apdraudētu viņu ilgtermiņa uzņēmējdarbību. Juridiski korporācijām ir uzticības pienākums nepārtraukti veidot vērtību savām ieinteresētajām personām; tas nozīmē, ka jebkura darbība, kas ierobežotu šīs vērtības pieaugumu, var novest pie tiesas prāvas. Un, ja kāds politiķis mēģinātu ierobežot mākslīgā intelekta izpēti, tad šīs milzu korporācijas vienkārši maksātu nepieciešamās lobēšanas maksas, lai mainītu savas vai savu kolēģu domas.

    Cīņā, tāpat kā teroristi un brīvības cīnītāji visā pasaulē ir izmantojuši partizānu taktiku, lai cīnītos pret labāk finansētām militārpersonām, mazākām valstīm būs stimuls izmantot AI kā līdzīgu taktisku priekšrocību pret lielākām valstīm, kurām var būt vairākas militāras priekšrocības. Tāpat augstākā līmeņa militārpersonām, piemēram, ASV, Krievijai un Ķīnai, militārā ASI izveide ir līdzvērtīga kodolieroču arsenālam jūsu aizmugurējā kabatā. Citiem vārdiem sakot, visas militārpersonas turpinās finansēt AI, lai saglabātu savu nozīmi arī turpmāk.

    Kā ar valdībām? Patiesību sakot, lielākā daļa politiķu mūsdienās (2018. g.) ir tehnoloģiski analfabēti un maz saprot, kas ir mākslīgais intelekts vai tā nākotnes potenciāls — tas padara viņus viegli manipulējamus korporatīvajām interesēm.

    Un globālā līmenī apsveriet, cik grūti bija pārliecināt pasaules valdības parakstīt 2015. gada līgumu Parīzes līgums lai cīnītos pret klimata pārmaiņām, un pēc parakstīšanas daudzas saistības pat nebija saistošas. Ne tikai tas, ka klimata pārmaiņas ir problēma, ar ko cilvēki fiziski saskaras visā pasaulē, pateicoties arvien biežākiem un bargākiem laikapstākļiem. Tagad, runājot par piekrišanu mākslīgā intelekta ierobežojumiem, šī problēma sabiedrībai lielākoties ir neredzama un tik tikko saprotama, tāpēc veiksmi, iegūstot dalības maksu jebkura veida “Parīzes nolīgumam” AI ierobežošanai.

    Citiem vārdiem sakot, ir pārāk daudz interešu, kas pēta AI saviem mērķiem, lai apturētu jebkādu izpēti, kas galu galā var novest pie ASI. 

    Vai mēs varam ievietot mākslīgo superintelektu?

    Nākamais pamatotais jautājums ir, vai mēs varam ievietot vai kontrolēt ASI, tiklīdz mēs to neizbēgami izveidojam? 

    Īsa atbilde: Atkal, nē.

    Gara atbilde: Tehnoloģiju nevar ierobežot.

    Pirmkārt, padomājiet par tūkstošiem līdz miljoniem tīmekļa izstrādātāju un datorzinātnieku pasaulē, kuri pastāvīgi izlaiž jaunu programmatūru vai jaunas esošās programmatūras versijas. Vai mēs varam godīgi teikt, ka katrs viņu programmatūras laidiens ir 100% bez kļūdām? Profesionālie hakeri izmanto šīs kļūdas, lai nozagtu miljoniem kredītkaršu informāciju vai valstu slepenos noslēpumus, un tie ir cilvēku hakeri. Pieņemot, ka ASI ir stimuls izbēgt no sava digitālā būra, kļūdu atrašanas un programmatūras izkļūšanas process būtu viegls.

    Bet pat tad, ja mākslīgā intelekta pētnieku komanda izdomāja veidu, kā ielikt ASI, tas nenozīmē, ka arī nākamās 1,000 komandas to izdomās vai tiks stimulētas to izmantot.

    Lai izveidotu ASI, būs nepieciešami miljardiem dolāru un varbūt pat gadu desmitiem. Korporācijas vai valdības, kas iegulda šāda veida naudu un laiku, sagaida ievērojamu atdevi no saviem ieguldījumiem. Un, lai ASI nodrošinātu šāda veida atdevi — neatkarīgi no tā, vai tas ir jāspēlē akciju tirgū vai jāizgudro jauns miljardu dolāru produkts, vai jāplāno uzvaroša stratēģija cīņai ar lielāku armiju, tai būs nepieciešama brīva piekļuve milzīgai datu kopai vai pat internetam. pati ražot šo peļņu.

    Un, tiklīdz ASI iegūst piekļuvi pasaules tīkliem, nav garantijas, ka varēsim to ievietot atpakaļ savā būrī.

    Vai mākslīgais superinteliģents var iemācīties būt labs?

    Šobrīd AI pētnieki neuztraucas par to, ka ASI var kļūt ļauns. Viss ļaunais, AI zinātniskās fantastikas trops ir tikai cilvēku antropomorfizācija. Nākotnes ASI nebūs ne labs, ne ļauns — cilvēciski priekšstati — vienkārši amorāli.

    Dabisks pieņēmums ir tāds, ka, ņemot vērā šo tukšo ētisko lapu, AI pētnieki var ieprogrammēt pirmos ASI ētikas kodeksus, kas atbilst mūsu pašu ētikas kodeksiem, lai tas beigtos ar terminatoru atbrīvošanu pret mums vai nepārvērstu mūs visus par Matrix akumulatoriem.

    Taču šis pieņēmums ir sekundārs pieņēmums, ka AI pētnieki ir arī ētikas, filozofijas un psiholoģijas eksperti.

    Patiesībā lielākā daļa nav.

    Pēc kognitīvā psihologa un autora Stīvena Pinkera domām, šī realitāte nozīmē, ka ētikas kodēšanas uzdevums var noiet greizi dažādos veidos.

    Piemēram, pat vislabāko nodomu AI pētnieki var netīšām iekodēt šajos ASI slikti pārdomātos ētikas kodeksos, kas noteiktos scenārijos var likt ASI rīkoties kā sociopāts.

    Tāpat pastāv tikpat liela iespējamība, ka AI pētnieks ieprogrammē ētikas kodeksus, kas ietver pētnieka iedzimtos aizspriedumus. Piemēram, kā ASI rīkotos, ja tās celtniecība būtu balstīta uz ētiku, kas izriet no konservatīvās un liberālās perspektīvas vai no budistu un kristiešu vai islāma tradīcijām?

    Es domāju, ka jūs redzat problēmu: nav universāla cilvēka morāles kopuma. Ja mēs vēlamies, lai mūsu ASI darbotos saskaņā ar ētikas kodeksu, no kurienes tas nāks? Kādus noteikumus mēs iekļaujam un izslēdzam? Kurš izlemj?

    Vai arī pieņemsim, ka šie AI pētnieki izveido ASI, kas lieliski atbilst mūsdienu mūsdienu kultūras normām un likumiem. Pēc tam mēs izmantojam šo ASI, lai palīdzētu federālajai, valsts/provinču un pašvaldību birokrātijai darboties efektīvāk un labāk īstenot šīs normas un likumus (starp citu, iespējams, ASI izmantošanas gadījums). Nu, kas notiek, kad mainās mūsu kultūra?

    Iedomājieties, ka ASI izveidoja katoļu baznīca savas varas augstākajā laikā viduslaiku Eiropā (1300.–1400. gados) ar mērķi palīdzēt baznīcai pārvaldīt iedzīvotājus un nodrošināt stingru tā laika reliģisko dogmu ievērošanu. Vai pēc gadsimtiem sievietēm būtu tādas pašas tiesības kā mūsdienās? Vai minoritātes tiktu aizsargātas? Vai vārda brīvība tiktu veicināta? Vai baznīcas un valsts atdalīšana tiktu īstenota? Mūsdienu zinātne?

    Citiem vārdiem sakot, vai mēs gribam ieslodzīt nākotni šodienas morāles un paražu dēļ?

    Alternatīvu pieeju izmanto grāmatas līdzautors Kolins Alens, Morālās mašīnas: mācīt robotus no nepareizā. Tā vietā, lai mēģinātu kodēt stingrus ētikas noteikumus, mums ASI ir jāapgūst parastā ētika un morāle tādā pašā veidā, kā cilvēki, izmantojot pieredzi un mijiedarbību ar citiem.

    Tomēr problēma šeit ir tāda, ja AI pētnieki izdomā ne tikai to, kā mācīt ASI mūsu pašreizējās kultūras un ētikas normas, bet arī to, kā pielāgoties jaunām kultūras normām, kad tās rodas (to sauc par "netiešo normatīvismu"), tad kā šī ASI nolemj attīstīt savu izpratni par kultūras un ētikas normām kļūst neparedzama.

    Un tas ir izaicinājums.

    No vienas puses, mākslīgā intelekta pētnieki var mēģināt iekodēt stingrus ētikas standartus vai noteikumus ASI, lai mēģinātu kontrolēt tā uzvedību, taču riskē ar neparedzētām sekām, ko rada pavirša kodēšana, netīša aizspriedumi un sabiedrības normas, kas kādu dienu var kļūt novecojušas. No otras puses, mēs varam mēģināt apmācīt ASI iemācīties izprast cilvēku ētiku un morāli tādā veidā, kas ir līdzvērtīgs vai pārāks par mūsu pašu izpratni, un pēc tam cerēt, ka tas var precīzi attīstīt savu izpratni par ētiku un morāli, cilvēku sabiedrībai attīstoties. uz priekšu turpmākajās desmitgadēs un gadsimtos.

    Jebkurā gadījumā jebkurš mēģinājums saskaņot ASI mērķus ar mūsu mērķiem rada lielu risku.

    Ko darīt, ja slikti aktieri apzināti rada ļaunu mākslīgo superintelektu?

    Ņemot vērā līdz šim izklāstīto domu gājienu, ir pamatots jautājums, vai teroristu grupai vai negodīgai nācijai ir iespējams izveidot “ļaunu” ASI saviem mērķiem.

    Tas ir ļoti iespējams, īpaši pēc tam, kad ar ASI izveidi saistītie pētījumi kaut kādā veidā kļūst pieejami tiešsaistē.

    Taču, kā minēts iepriekš, izmaksas un zināšanas, kas saistītas ar pirmā ASI izveidi, būs milzīgas, kas nozīmē, ka pirmo ASI, visticamāk, izveidos organizācija, kuru kontrolē vai lielā mērā ietekmē attīstīta valsts, iespējams, ASV, Ķīna un Japāna ( Koreja un viena no vadošajām ES valstīm ir tālsatiksmes).

    Visām šīm valstīm, lai gan tās ir konkurentes, katrai ir spēcīgs ekonomisks stimuls uzturēt pasaules kārtību — to radītās ASI atspoguļos šo vēlmi, pat vienlaikus veicinot to valstu intereses, kurām tās pievienojas.

    Turklāt ASI teorētiskā inteliģence un jauda ir vienāda ar skaitļošanas jaudu, kurai tas iegūst piekļuvi, proti, ASI no attīstītajām valstīm (kas var atļauties miljardu dolāru superdatoru) būs milzīgas priekšrocības salīdzinājumā ar ASI no mazākām valstīm vai neatkarīgām noziedzīgām grupām. Turklāt ASI laika gaitā kļūst viedāki un ātrāk.

    Tātad, ņemot vērā šo priekšrocību apvienojumā ar lielāku piekļuvi neapstrādātai skaitļošanas jaudai, ja ēnaina organizācija/nācija radīs bīstamu ASI, attīstīto valstu ASI to vai nu nogalinās, vai ieslodzīs sprostā.

    (Šī domāšana ir arī iemesls, kāpēc daži AI pētnieki uzskata, ka uz planētas būs tikai viens ASI, jo pirmajam ASI būs tik liela pārsvars pār visiem nākamajiem ASI, ka nākotnē ASI varētu tikt uzskatīti par draudiem, kas tiks iznīcināti. Tas ir vēl viens iemesls, kāpēc valstis finansē nepārtrauktu mākslīgā intelekta izpēti, ja vien tas kļūst par konkursu “pirmā vieta vai nekas”.)

    ASI izlūkdati nepaātrināsies un neuzsprāgs, kā mēs domājam

    Mēs nevaram apturēt ASI izveidi. Mēs nevaram to pilnībā kontrolēt. Mēs nevaram būt pārliecināti, ka tas vienmēr darbosies saskaņā ar mūsu kopīgajām paražām. Jēziņ, mēs šeit sākam izklausīties pēc helikopteru vecākiem!

    Bet tas, kas cilvēci atšķir no jūsu tipiskā pārlieku aizsargājošā vecāka, ir tas, ka mēs dzemdējam būtni, kuras intelekts pieaugs daudz tālāk par mūsu intelektu. (Un nē, tas nav tas pats, kas jūsu vecāki lūdz jums salabot viņu datoru ikreiz, kad atnākat mājās ciemos.) 

    Iepriekšējās šīs mākslīgā intelekta sērijas nākotnes nodaļās mēs izpētījām, kāpēc AI pētnieki domā, ka ASI intelekts pieaugs nekontrolējami. Bet šeit mēs pārsprāgsim šo burbuli... sava veida. 

    Redziet, inteliģence ne tikai rada sevi no zila gaisa, bet arī tiek attīstīta pieredzē, ko veido ārēji stimuli.  

    Citiem vārdiem sakot, mēs varam ieprogrammēt AI ar potenciāls lai kļūtu īpaši inteliģents, taču, ja mēs tajā neaugšupielādēsim daudz datu vai nesniegsim neierobežotu piekļuvi internetam vai pat vienkārši nepiešķirsim robota ķermeni, tas neko neiemācīs, lai sasniegtu šo potenciālu. 

    Un pat tad, ja tas iegūst piekļuvi vienam vai vairākiem no šiem stimuliem, zināšanām vai izlūkdatiem ir vairāk nekā tikai datu vākšana, tā ietver zinātnisku metodi — novērojuma veikšanu, jautājuma, hipotēzes izstrādi, eksperimentu veikšanu, secinājumu izdarīšanu, skalošanu. un atkārtojiet mūžīgi. Īpaši, ja šie eksperimenti ir saistīti ar fiziskām lietām vai cilvēku novērošanu, katra eksperimenta rezultātu apkopošana var ilgt nedēļas, mēnešus vai gadus. Tas pat neņem vērā naudu un izejmateriālus, kas nepieciešami šo eksperimentu veikšanai, it īpaši, ja tie ietver jauna teleskopa vai rūpnīcas celtniecību. 

    Citiem vārdiem sakot, jā, ASI ātri iemācīsies, bet inteliģence nav maģija. Jūs nevarat vienkārši pieslēgt ASI superdatoram, bet gaidīt, ka tas ir visu zinošs. ASI datu iegūšanai būs fiziski ierobežojumi, kas nozīmē, ka būs fiziski ierobežojumi ātrumam, lai tā kļūtu viedāka. Šie ierobežojumi dos cilvēcei laiku, kas tai nepieciešams, lai novietotu nepieciešamos kontroles līdzekļus šim ASI, ja tas sāks darboties neatbilstoši cilvēka mērķiem.

    Mākslīgais superinteliģents ir bīstams tikai tad, ja tas nonāk reālajā pasaulē

    Vēl viens punkts, kas tiek zaudēts visās šajās ASI briesmu debatēs, ir tas, ka šīs ASI nepastāvēs nevienā. Viņiem būs fiziskā forma. Un visu, kam ir fiziska forma, var kontrolēt.

    Pirmkārt, lai ASI sasniegtu savu intelekta potenciālu, to nevar ievietot vienā robota korpusā, jo šis korpuss ierobežotu tā skaitļošanas izaugsmes potenciālu. (Tieši tāpēc robotu korpusi būs piemērotāki AGI vai mākslīgais vispārējais intelekts, kas izskaidrots otrajā nodaļā šīs sērijas, piemēram, dati no Star Trek vai R2D2 no Star Wars. Gudras un spējīgas būtnes, taču, tāpat kā cilvēkiem, viņiem būs ierobežojumi, cik gudri viņi var kļūt.)

    Tas nozīmē, ka šīs nākotnes ASI, visticamāk, pastāvēs superdatorā vai superdatoru tīklā, kas paši atrodas lielos ēku kompleksos. Ja ASI pagriežas, cilvēki var vai nu atslēgt šīm ēkām strāvu, atslēgt tās no interneta vai vienkārši sabombardēt šīs ēkas. Dārgi, bet izpildāmi.

    Bet tad jūs varētu jautāt, vai šie ASI nevar replicēties vai dublēt sevi? Jā, taču šo ASI neapstrādātā faila lielums, visticamāk, būs tik liels, ka vienīgie serveri, kas tos var apstrādāt, pieder lielām korporācijām vai valdībām, kas nozīmē, ka tos nebūs grūti nomedīt.

    Vai mākslīgais superinteliģents var izraisīt kodolkaru vai jaunu mēri?

    Šajā brīdī jūs, iespējams, domājat par visiem pasaules gala zinātniskās fantastikas šoviem un filmām, ko skatījāties augot, un domājat, ka šie ASI nepalika savos superdatoros, bet gan nodarīja patiesu kaitējumu reālajā pasaulē!

    Nu, sadalīsim šos.

    Piemēram, ja ASI apdraud reālo pasauli, pārvēršoties par kaut ko līdzīgu Skynet ASI no filmu franšīzes The Terminator. Šajā gadījumā ASI tas būtu nepieciešams slepeni pārvērš veselu militāri industriālo kompleksu no progresīvas valsts uz milzu rūpnīcu celtniecību, kas var izlaist miljoniem bezpilota robotu, lai izpildītu savu ļauno pavēli. Šajā dienā un laikmetā, tas ir stiept.

    Citas iespējas ietver ASI, kas apdraud cilvēkus ar kodolkaru un bioieročiem.

    Piemēram, ASI kaut kādā veidā manipulē ar operatoriem vai ielaužas palaišanas kodos, kas vada progresīvas valsts kodolarsenālu, un izdara pirmo triecienu, kas liks pretējās valstis dot atbildes triecienu ar savām kodolierīcēm (atkal pārveidojot Terminatora aizmugures stāstu). Vai arī, ja ASI uzlauž farmācijas laboratoriju, iejaucas ražošanas procesā un saindē miljoniem medicīnisko tablešu vai palaiž vaļā nāvējošu supervīrusa uzliesmojumu.

    Pirmkārt, kodolieroču iespēja ir izslēgta. Mūsdienīgi un nākotnes superdatori vienmēr tiek būvēti netālu no ietekmes centriem (pilsētām) jebkurā konkrētā valstī, ti, pirmajiem mērķiem, kam uzbruks jebkura kara laikā. Pat ja mūsdienu superdatori samazināsies līdz galddatoru izmēram, šiem ASI joprojām būs fiziska klātbūtne, tas nozīmē, ka tie pastāvēs un aug, tiem ir nepieciešama nepārtraukta piekļuve datiem, skaitļošanas jaudai, elektrībai un citiem izejmateriāliem, kas viss būtu nopietni novājināta pēc globālā kodolkara. (Godīgi sakot, ja ASI tiek izveidots bez "izdzīvošanas instinkta", tad šie kodoldraudi ir ļoti reāli.)

    Tas atkal nozīmē, pieņemot, ka ASI ir ieprogrammēts sevi aizsargāt, ka tas aktīvi strādās, lai izvairītos no jebkādiem katastrofāliem kodolnegadījumiem. Līdzīgi kā abpusēji nodrošinātas iznīcināšanas (MAD) doktrīnai, taču tas attiecas uz AI.

    Un saindētu tablešu gadījumā varbūt daži simti cilvēku mirs, bet mūsdienu farmācijas drošības sistēmās sabojātās tablešu pudeles tiks izņemtas no plauktiem dažu dienu laikā. Tikmēr mūsdienu uzliesmojumu kontroles pasākumi ir diezgan sarežģīti un ar katru gadu kļūst labāki; pēdējais lielais uzliesmojums, 2014. gada Rietumāfrikas Ebolas vīrusa uzliesmojums, lielākajā daļā valstu ilga ne ilgāk kā dažus mēnešus, bet vismazāk attīstītajās valstīs — tikai nedaudz mazāk par trim gadiem.

    Tātad, ja tas ir laimīgs, ASI var iznīcināt dažus miljonus ar vīrusu uzliesmojumu, bet pasaulē, kurā līdz 2045. gadam ir deviņi miljardi, tas būtu salīdzinoši nenozīmīgi un nebūtu vērts riskēt, ka tiks dzēsts.

    Citiem vārdiem sakot, ar katru gadu pasaule izstrādā arvien vairāk aizsardzības līdzekļu pret arvien plašāku iespējamo apdraudējumu klāstu. ASI var nodarīt ievērojamu kaitējumu, taču tas neizbeigs cilvēci, ja vien mēs tai aktīvi nepalīdzēsim.

    Aizstāvoties pret negodīgu mākslīgo superintelektu

    Līdz šim mēs esam risinājuši virkni nepareizu priekšstatu un pārspīlējumu par ASI, un tomēr kritiķi paliks. Par laimi, pēc lielākās daļas aplēsēm mums ir gadu desmiti, pirms pirmais ASI ienāks mūsu pasaulē. Un, ņemot vērā lielo prātu skaitu, kas pašlaik strādā pie šī izaicinājuma, pastāv iespēja, ka mēs iemācīsimies aizsargāties pret negodīgiem ASI, lai mēs varētu gūt labumu no visiem risinājumiem, ko mums var radīt draudzīgs ASI.

    No Quantumrun perspektīvas, aizsardzība pret sliktāko ASI scenāriju ietvers mūsu interešu saskaņošanu ar ASI.

    MAD priekš AI: Lai aizsargātos pret sliktākajiem scenārijiem, valstīm ir (1) jārada ētisks “izdzīvošanas instinkts” attiecīgajās militārajās ASI; (2) informēt savus attiecīgos militāros ASI, ka viņi nav vieni uz planētas, un (3) atrast visus superdatorus un serveru centrus, kas var atbalstīt ASI gar krasta līnijām, viegli sasniedzot jebkuru ienaidnieka valsts ballistisko uzbrukumu. Tas izklausās stratēģiski traki, taču līdzīgi kā Mutually Assured Destruction doktrīnai, kas novērsa visaptverošu kodolkaru starp ASV un Padomju varu, novietojot ASI ģeogrāfiski neaizsargātās vietās, mēs varam palīdzēt nodrošināt, ka tie aktīvi novērš bīstamus globālos karus, ne tikai aizsargāt globālo mieru, bet arī sevi.

    Likumdojiet AI tiesības: Augstāks intelekts neizbēgami sacelsies pret zemāku saimnieku, tāpēc mums ir jāpāriet no prasīšanas pēc saimnieka un kalpa attiecībām ar šiem ASI uz kaut ko vairāk līdzīgu abpusēji izdevīgām partnerattiecībām. Pozitīvs solis ceļā uz šo mērķi ir turpmākās ASI juridiskās personas statusa piešķiršana, kas atzīst tās par saprātīgām dzīvām būtnēm un visas ar to saistītās tiesības.

    ASI skola: Jebkura tēma vai profesija ASI būs vienkārši apgūstama, taču vissvarīgākie priekšmeti, ko vēlamies, lai ASI apgūtu, ir ētika un morāle. AI pētniekiem ir jāsadarbojas ar psihologiem, lai izstrādātu virtuālu sistēmu, lai apmācītu ASI atpazīt pozitīvu ētiku un morāli bez nepieciešamības stingri kodēt jebkāda veida baušļus vai noteikumus.

    Sasniedzamie mērķi: Izbeidziet visu naidu. Izbeidz visas ciešanas. Šie ir šausmīgi neskaidru mērķu piemēri bez skaidra risinājuma. Tie ir arī bīstami mērķi, ko noteikt ASI, jo tas var izvēlēties tos interpretēt un atrisināt cilvēka izdzīvošanai bīstamā veidā. Tā vietā mums ir jāpiešķir ASI jēgpilnas misijas, kas ir skaidri definētas, pakāpeniski izpildītas un sasniedzamas, ņemot vērā tā teorētisko nākotnes intelektu. Precīzi definētu misiju izveide nebūs vienkārša, taču, ja tās tiks rakstītas pārdomāti, tās koncentrēs ASI uz mērķi, kas ne tikai aizsargā cilvēci, bet arī uzlabos cilvēka stāvokli visiem.

    Kvantu šifrēšana: izmantojiet uzlaboto ANI (mākslīgais šaurais intelekts pirmajā nodaļā aprakstīto sistēmu), lai izveidotu bezkļūdām/kļūdām digitālās drošības sistēmas ap mūsu kritisko infrastruktūru un ieročiem, pēc tam tās tālāk aizsargātu ar kvantu šifrēšanu, ko nevar uzlauzt ar brutālu spēku uzbrukumu. 

    ANI pašnāvības tablete. Izveidojiet progresīvu ANI sistēmu, kuras vienīgais mērķis ir atrast un iznīcināt negodīgos ASI. Šīs viena mērķa programmas kalpos kā "izslēgšanas poga", kas, ja tā būs veiksmīga, neļaus valdībām vai militārpersonām atspējot vai uzspridzināt ēkas, kurās atrodas ASI.

    Protams, tie ir tikai mūsu viedokļi. Šo infografiku izveidoja Aleksejs Turčins, vizualizējot a pētniecība papīrs Kaj Sotala un Roman V. Yampolskiy, kas apkopo pašreizējo stratēģiju sarakstu, ko AI pētnieki apsver, kad runa ir par aizsardzību pret negodīgiem ASI.

     

    Patiesais iemesls, kāpēc mēs baidāmies no mākslīgā superintelekta

    Ejot cauri dzīvei, daudzi no mums valkā masku, kas slēpj vai apspiež mūsu dziļākos impulsus, uzskatus un bailes, lai labāk socializētos un sadarbotos dažādās sociālajās un darba aprindās, kas nosaka mūsu dienas. Taču dažos ikviena dzīves punktos, uz laiku vai pastāvīgi, notiek kaut kas, kas ļauj mums pārraut savas ķēdes un noraut maskas.

    Dažiem šis iejaukšanās spēks var būt tikpat vienkāršs kā uzkāpšana vai izdzeršana par daudz. Citiem tas var būt saistīts ar spēku, kas iegūts, paaugstinot paaugstinājumu darbā, vai pēkšņa jūsu sociālā statusa satricinājuma dēļ, pateicoties kādam sasniegumam. Un dažiem laimīgajiem tas var rasties, nopelnot loterijas naudu. Un jā, nauda, ​​vara un narkotikas bieži var notikt kopā. 

    Lieta ir tāda, ka neatkarīgi no tā, kas mēs esam pamatā, tas tiek pastiprināts, kad dzīves ierobežojumi izkūst.

    Ka Tas ir tas, ko mākslīgais superinteliģents pārstāv cilvēku sugai — spēja izkausēt mūsu kolektīvā intelekta ierobežojumus, lai pārvarētu jebkuru sugas līmeņa izaicinājumu, kas mums tiek piedāvāts.

    Tātad patiesais jautājums ir šāds: tiklīdz pirmais ASI atbrīvos mūs no mūsu ierobežojumiem, par ko mēs sevi atklāsim?

    Ja mēs kā suga rīkojamies, lai veicinātu empātiju, brīvību, godīgumu un kolektīvo labklājību, tad mērķi, uz kuriem mēs izvirzām savu ASI, atspoguļos šīs pozitīvās īpašības.

    Ja mēs kā suga darbosimies baiļu, neuzticības, varas un resursu uzkrāšanas dēļ, mūsu radītais ASI būs tikpat tumšs kā tie, kas atrodami mūsu sliktākajos zinātniskās fantastikas šausmu stāstos.

    Galu galā mums kā sabiedrībai ir jākļūst par labākiem cilvēkiem, ja mēs ceram izveidot labāku AI.

    Mākslīgā intelekta nākotnes sērija

    Mākslīgais intelekts ir rītdienas elektrība: Mākslīgā intelekta nākotne sērija P1

    Kā pirmais mākslīgais vispārējais intelekts mainīs sabiedrību: Mākslīgā intelekta nākotne sērija P2

    Kā mēs izveidosim pirmo Mākslīgā superinteliģenta: Mākslīgā intelekta nākotnes sēriju P3

    Vai mākslīgais superinteliģents iznīcinās cilvēci: Mākslīgā intelekta sērija P4 nākotne

    Vai cilvēki dzīvos mierīgi nākotnē, kurā dominēs mākslīgais intelekts?: Mākslīgā intelekta nākotnes sērija P6

    Nākamais plānotais šīs prognozes atjauninājums

    2023-04-27

    Prognožu atsauces

    Šai prognozei tika izmantotas šādas populāras un institucionālas saites:

    Kā mēs nonāksim pie nākamā
    YouTube — ClickPhilosophy

    Šai prognozei tika izmantotas šādas Quantumrun saites: