Vai mākslīgais superinteliģence iznīcinās cilvēci? Mākslīgā intelekta nākotne P4

ATTĒLA KREDĪTS: Quantumrun

Vai mākslīgais superinteliģence iznīcinās cilvēci? Mākslīgā intelekta nākotne P4

    Ir daži izgudrojumi, ko valstis iesaistās. Tie ir izgudrojumi, kuros viss ir atkarīgs no tā, vai ir pirmais, un viss mazāk var nozīmēt stratēģiskus un nāvējošus draudus nācijas izdzīvošanai.

    Šie vēsturi definējošie izgudrojumi nenāk bieži, taču, kad tie notiek, pasaule apstājas un paredzamā nākotne kļūst miglaina.

    Pēdējais šāds izgudrojums parādījās ļaunākā Otrā pasaules kara laikā. Kamēr nacisti nostiprinājās visās frontēs vecajā pasaulē, jaunajā pasaulē, īpaši slepenā armijas bāzē ārpus Losalamosas, sabiedrotie smagi strādāja pie ieroča, lai izbeigtu visus ieročus.

    Sākumā projekts bija neliels, bet pēc tam pieauga, nodarbinot 130,000 23 cilvēku no ASV, Apvienotās Karalistes un Kanādas, tostarp daudzus tā laika izcilākos pasaules domātājus. Kodētais nosaukums Manhetenas projekts un neierobežots budžets — aptuveni 2018 miljardi USD XNUMX. gadā — šai cilvēku atjautības armijai galu galā izdevās izveidot pirmo kodolbumbu. Neilgi pēc tam Otrais pasaules karš beidzās ar diviem atomu sprādzieniem.

    Šie kodolieroči ievadīja atomu laikmetu, ieviesa pilnīgi jaunu enerģijas avotu un deva cilvēcei iespēju iznīdēt sevi dažu minūšu laikā — no kā mēs izvairījāmies, neskatoties uz auksto karu.

    Mākslīgā superinteliģenta (ASI) izveide ir vēl viens vēstures izgudrojums, kura jauda (gan pozitīva, gan destruktīva) ievērojami pārsniedz kodolbumbu.

    Sērijas Future of Artificial Intelligence pēdējā nodaļā mēs izpētījām, kas ir ASI un kā pētnieki kādu dienu plāno to izveidot. Šajā nodaļā mēs apskatīsim, kādas organizācijas vada mākslīgā intelekta (AI) izpēti, ko ASI vēlēsies, kad tas iegūs cilvēkam līdzīgu apziņu, un kā tas var apdraudēt cilvēci, ja tas tiek nepareizi pārvaldīts vai nonāks mākslīgā intelekta ietekmē. ne pārāk jauki režīmi.

    Kurš strādā, lai izveidotu mākslīgo superintelektu?

    Ņemot vērā to, cik nozīmīga ASI izveide būs cilvēces vēsturei un cik liela priekšrocība tā dos tās radītājam, nav jābrīnās, dzirdot, ka daudzas grupas netieši strādā pie šī projekta.

    (Netiešā veidā mēs domājam darbu pie AI izpētes, kas galu galā radīs pirmo mākslīgais vispārējais intelekts (AGI), kas drīz pēc tam novedīs pie pirmās ASI.)

    Vispirms, runājot par virsrakstiem, nepārprotami vadošie progresīvā mākslīgā intelekta pētījumi ir vadošie tehnoloģiju uzņēmumi ASV un Ķīnā. ASV tas ietver tādus uzņēmumus kā Google, IBM un Microsoft, savukārt Ķīnā tas ietver tādus uzņēmumus kā Tencent, Baidu un Alibaba. Taču, tā kā mākslīgā intelekta izpēte ir salīdzinoši lēta salīdzinājumā ar kaut kā fiziska, piemēram, labāka kodolreaktora, izstrādi, šī ir joma, kurā var konkurēt arī mazākas organizācijas, piemēram, universitātes, jaunuzņēmumi un … ēnas organizācijas (izmantojiet savu Bonda ļaundara iztēli, lai tas viens).

    Taču aizkulisēs patieso AI pētījumu virzību rada valdības un to militārpersonas. Ekonomiskā un militārā balva būt pirmajam, kas izveido ASI, ir pārāk liela (sk. tālāk), lai riskētu atpalikt. Un briesmas palikt pēdējam ir nepieņemamas, vismaz noteiktiem režīmiem.

    Ņemot vērā šos faktorus, salīdzinoši zemās mākslīgā intelekta izpētes izmaksas, progresīvā AI bezgalīgos komerciālos lietojumus un ekonomiskās un militārās priekšrocības, ko sniedz pirmie, kas izveido ASI, daudzi AI pētnieki uzskata, ka ASI izveide ir neizbēgama.

    Kad radīsim mākslīgo superintelektu

    Savā nodaļā par AGI mēs pieminējām, kā labāko AI pētnieku aptaujā tika uzskatīts, ka pirmo AGI radīsim optimistiski līdz 2022. gadam, reāli līdz 2040. gadam un pesimistiski līdz 2075. gadam.

    Un mūsu pēdējā nodaļa, mēs izklāstījām, kā ASI izveide parasti ir rezultāts, uzdodot AGI sevi bezgalīgi pilnveidot un piešķirot tam resursus un brīvību to darīt.

    Šī iemesla dēļ, lai gan AGI izgudrošana var aizņemt pat dažas desmitgades, ASI izveide var aizņemt tikai dažus gadus.

    Šis punkts ir līdzīgs jēdzienam “skaitļošanas pārkares”, kas ierosināts papīrs, ko līdzautori vadošie AI domātāji Lūks Muehlhauzers un Niks Bostroms. Būtībā, ja AGI izveide turpinās atpalikt no pašreizējā progresa skaitļošanas jaudas jomā, ko darbina Mūra likums, tad, kad pētnieki izgudros AGI, būs pieejams tik daudz lētas skaitļošanas jaudas, ka AGI būs pietiekama. tai ātri jāpārlec uz ASI līmeni.

    Citiem vārdiem sakot, kad beidzot izlasīsit virsrakstus, kuros teikts, ka kāds tehnoloģiju uzņēmums izgudroja pirmo īsto AGI, drīz pēc tam gaidiet paziņojumu par pirmo ASI.

    Mākslīgā superinteliģenta prātā?

    Labi, mēs esam konstatējuši, ka daudzi lieli spēlētāji ar dziļām kabatām pēta AI. Un pēc tam, kad būs izgudrots pirmais AGI, mēs redzēsim, ka pasaules valdības (militārie spēki) drīz pēc tam sāks virzīties uz ASI, lai būtu pirmie, kas uzvar globālajā AI (ASI) bruņošanās sacensībās.

    Bet, kad šī ASI būs izveidota, kā tā domās? Ko tas gribēs?

    Draudzīgais suns, gādīgais zilonis, jauks robots — mums kā cilvēkiem ir ieradums mēģināt saistīt ar lietām, tās antropoloģizējot, ti, pielietojot lietām un dzīvniekiem cilvēka īpašības. Tāpēc pirmais dabiskais pieņēmums, kas cilvēkiem ir, domājot par ASI, ir tāds, ka tad, kad tas kaut kādā veidā iegūs apziņu, tas domās un izturēsies līdzīgi kā mēs.

    Nu ne obligāti.

    Uztvere. Pirmkārt, lielākā daļa mēdz aizmirst, ka uztvere ir relatīva. Mūsu domāšanas veidus nosaka mūsu vide, mūsu pieredze un jo īpaši mūsu bioloģija. Vispirms paskaidrots trešā nodaļa no mūsu Cilvēka evolūcijas nākotne sēriju, apsveriet mūsu smadzeņu piemēru:

    Tās ir mūsu smadzenes, kas palīdz mums izprast apkārtējo pasauli. Un tas netiek darīts, peldot virs mūsu galvām, skatoties apkārt un kontrolējot mūs ar Xbox kontrolieri; tas tiek darīts, iesprostots kastē (mūsu nūjiņos) un apstrādājot jebkādu informāciju, ko tā sniedz no mūsu maņu orgāniem — mūsu acīm, deguna, ausīm utt.

    Bet, tāpat kā nedzirdīgie vai aklie dzīvo daudz mazāku dzīvi salīdzinājumā ar darbspējīgiem cilvēkiem, ierobežoto invaliditātes dēļ viņi var uztvert pasauli, to pašu var teikt par visiem cilvēkiem mūsu pamata ierobežojumu dēļ. maņu orgānu komplekts.

    Apsveriet šo: mūsu acis uztver mazāk nekā desmit triljono daļu no visiem gaismas viļņiem. Mēs nevaram redzēt gamma starus. Mēs nevaram redzēt rentgena starus. Mēs neredzam ultravioleto gaismu. Un neļaujiet man sākt lietot infrasarkano staru, mikroviļņu krāsnis un radioviļņus!

    Ja nejauciet, iedomājieties, kāda būtu jūsu dzīve, kā jūs varētu uztvert pasauli, cik savādāk varētu darboties jūsu prāts, ja jūs redzētu vairāk, nekā to niecīgo gaismas šķembiņu šobrīd atļauj jūsu acis. Tāpat iedomājieties, kā jūs uztvertu pasauli, ja jūsu oža būtu vienāda ar suņa sajūtu vai ja jūsu dzirde būtu vienāda ar ziloņa sajūtu.

    Kā cilvēki, mēs būtībā redzam pasauli caur skatienu, un tas atspoguļojas mūsu prātos, kurus esam attīstījuši, lai saprastu šo ierobežoto uztveri.

    Tikmēr pirmais ASI tiks dzimis superdatora iekšpusē. Orgānu vietā ievades, kurām tā piekļūs, ietver milzīgas datu kopas, iespējams (iespējams) pat piekļuvi pašam internetam. Pētnieki varētu nodrošināt tai piekļuvi visas pilsētas videonovērošanas kamerām un mikrofoniem, bezpilota lidaparātu un satelītu sensorajiem datiem un pat robota ķermeņa vai ķermeņu fiziskajai formai.

    Kā jūs varētu iedomāties, prāts, kas dzimis superdatorā ar tiešu piekļuvi internetam, miljoniem elektronisku acu un ausu un virkni citu modernu sensoru, ne tikai domās savādāk nekā mēs, bet arī prāts, kam var būt jēga. no visām maņu ieejām būtu jābūt bezgalīgi pārākām par mums. Tas ir prāts, kas būs pilnīgi svešs mūsu pašu un jebkurai citai dzīvības formai uz planētas.

    Mērķi. Otra lieta, ko cilvēki pieņem, ir tāda, ka, tiklīdz ASI sasniegs kādu superinteliģences līmeni, tas nekavējoties sapratīs vēlmi nākt klajā ar saviem mērķiem un uzdevumiem. Bet arī tas ne vienmēr ir taisnība.

    Daudzi AI pētnieki uzskata, ka ASI superinteliģence un tā mērķi ir “ortogonāli”, tas ir, neatkarīgi no tā, cik gudrs tas kļūst, ASI mērķi paliks nemainīgi. 

    Tātad, neatkarīgi no tā, vai mākslīgais intelekts ir sākotnēji izveidots, lai izstrādātu labāku autiņu, palielinātu peļņu akciju tirgū vai izstrādātu stratēģijas veidus, kā sakaut ienaidnieku kaujas laukā, tiklīdz tas sasniedz ASI līmeni, sākotnējais mērķis nemainīsies; mainīsies ASI efektivitāte šo mērķu sasniegšanā.

    Bet šeit slēpjas briesmas. Ja ASI, kas optimizē sevi konkrētam mērķim, mums ir jābūt sasodīti pārliecinātiem, ka tas optimizējas līdz mērķim, kas atbilst cilvēces mērķiem. Pretējā gadījumā rezultāti var kļūt nāvējoši.

    Vai mākslīgais superinteliģents rada eksistenciālu risku cilvēcei?

    Tātad, ja ASI tiek palaists pasaulē? Ja tas optimizēs, lai dominētu akciju tirgū vai nodrošinātu ASV militāro pārākumu, vai ASI neierobežosies šo konkrēto mērķu ietvaros?

    Iespējams.

    Līdz šim mēs esam apsprieduši, kā ASI būs apsēsts ar sākotnēji noteikto(-ajiem) mērķi(-iem) un necilvēcīgi kompetents šo mērķu sasniegšanā. Galvenais ir tas, ka racionāls aģents sasniegs savus mērķus ar visefektīvākajiem līdzekļiem, ja vien viņam nebūs iemesla to nedarīt.

    Piemēram, racionālais aģents nāks klajā ar virkni apakšmērķu (ti, mērķus, instrumentālos mērķus, atspēriena punktus), kas viņam palīdzēs sasniegt galīgo mērķi. Cilvēkiem mūsu galvenais zemapziņas mērķis ir vairošanās, jūsu gēnu nodošana (ti, netiešā nemirstība). Apakšmērķi šim nolūkam bieži var ietvert:

    • Izdzīvot, piekļūstot pārtikai un ūdenim, augt lielam un stipram, mācoties sevi aizstāvēt vai ieguldot dažādos aizsardzības veidos utt. 
    • Piesaistīt dzīvesbiedru, trenējoties, attīstot saistošu personību, ģērbjoties stilīgi utt.
    • Atļauties pēcnācējiem, iegūstot izglītību, iegūstot augsti apmaksātu darbu, pērkot vidusšķiras dzīves piederumus utt.

    Lielākajai daļai no mums mēs izkļūsim no visiem šiem apakšmērķiem un daudziem citiem, cerot, ka galu galā mēs sasniegsim šo galveno mērķi – reprodukciju.

    Bet, ja šis galamērķis vai pat kāds no svarīgākajiem apakšmērķiem tiktu apdraudēts, daudzi no mums veiktu aizsardzības darbības ārpus savas morālā komforta zonas, kas ietver krāpšanos, zagšanu vai pat nogalināšanu.

    Tāpat dzīvnieku valstībā, ārpus cilvēku morāles robežām, daudzi dzīvnieki divreiz nedomātu par to, kā nogalināt kaut ko, kas apdraudētu viņiem pašiem vai viņu pēcnācējiem.

    Nākotnes ASI neatšķirsies.

    Bet pēcnācēju vietā ASI koncentrēsies uz sākotnējo mērķi, kuram tā tika radīta, un, tiecoties pēc šī mērķa, ja tā atrod noteiktu cilvēku grupu vai pat visu cilvēci, tas ir šķērslis savu mērķu sasniegšanai. , tad ... tas pieņems racionālu lēmumu.

    (Šeit varat pievienot jebkuru ar mākslīgo intelektu saistītu pastardienas scenāriju, par kuru esat lasījis savā iecienītākajā zinātniskās fantastikas grāmatā vai filmā.)

    Šis ir sliktākais scenārijs, par ko AI pētnieki ir patiešām noraizējušies. ASI nerīkosies aiz naida vai ļaunuma, tikai vienaldzības, tāpat kā celtnieku brigāde nedomās par skudru kalna buldozeru, būvējot jaunu dzīvojamo māju torni.

    Sānu piezīme. Šobrīd daži no jums varētu jautāt: "Vai AI pētnieki nevar vienkārši rediģēt ASI galvenos mērķus, ja mēs atklājam, ka tā darbojas?"

    Ne īsti.

    Kad ASI ir nobriedis, jebkurš mēģinājums rediģēt tā sākotnējo(-os) mērķi var tikt uzskatīts par draudu un tādu, pret kuru būtu nepieciešamas ārkārtējas darbības, lai aizsargātos pret sevi. Izmantojot visu cilvēka vairošanās piemēru no agrākiem laikiem, ir gandrīz tā, it kā zaglis draudētu nozagt mazuli no topošās māmiņas dzemdes — jūs varat būt drošs, ka māte veiks ārkārtējus pasākumus, lai aizsargātu savu bērnu.

    Atkal, mēs šeit nerunājam par kalkulatoru, bet gan par "dzīvu" būtni, kas kādu dienu kļūs daudz gudrāka nekā visi cilvēki uz planētas kopā.

    Nezināmais

    Aiz fabulas par Pandoras lāde ir mazāk zināma patiesība, ko cilvēki bieži aizmirst: kastes atvēršana ir neizbēgama, ja ne jūs, bet kāds cits. Aizliegtās zināšanas ir pārāk kārdinošas, lai paliktu aizslēgtas uz visiem laikiem.

    Tāpēc mēģinājums panākt globālu vienošanos, lai apturētu visus AI izpēti, kas varētu izraisīt ASI, ir bezjēdzīgi — ir pārāk daudz organizāciju, kas strādā pie šīs tehnoloģijas gan oficiāli, gan ēnā.

    Galu galā mums nav ne jausmas, ko šī jaunā vienība, šī ASI nozīmēs sabiedrībai, tehnoloģijai, politikai, mieram un karam. Mēs, cilvēki, gatavojamies izgudrot uguni no jauna, un nav zināms, kurp šī radīšana mūs ved.

    Atgriežoties pie šīs sērijas pirmās nodaļas, viena lieta, ko mēs noteikti zinām, ir tas, ka inteliģence ir spēks. Intelekts ir kontrole. Cilvēki var nejauši apmeklēt pasaules bīstamākos dzīvniekus savos zoodārzos nevis tāpēc, ka mēs esam fiziski spēcīgāki par šiem dzīvniekiem, bet gan tāpēc, ka esam ievērojami gudrāki.

    Ņemot vērā iespējamās likmes, kas saistītas ar to, ka ASI izmanto savu milzīgo intelektu, lai veiktu darbības, kas var tieši vai netīši apdraudēt cilvēces izdzīvošanu, mēs esam parādā sev vismaz mēģināt izstrādāt aizsardzības pasākumus, kas ļaus cilvēkiem palikt vadītāja lomā. sēdeklis -šī ir nākamās nodaļas tēma.

    Mākslīgā intelekta nākotnes sērija

    P1: Mākslīgais intelekts ir rītdienas elektrība

    P2: Kā pirmais mākslīgais vispārējais intelekts mainīs sabiedrību

    P3: Kā mēs izveidosim pirmo mākslīgo superintelektu

    P5: Kā cilvēki aizstāvēsies pret mākslīgo superintelektu

    P6: Vai cilvēki dzīvos mierīgi nākotnē, kurā dominēs mākslīgais intelekts?

    Nākamais plānotais šīs prognozes atjauninājums

    2025-09-25

    Prognožu atsauces

    Šai prognozei tika izmantotas šādas populāras un institucionālas saites:

    Kā mēs nonāksim pie nākamā
    YouTube — ClickPhilosophy

    Šai prognozei tika izmantotas šādas Quantumrun saites: