Kaip žmonės ginsis nuo dirbtinio superintelekto: dirbtinio intelekto ateitis P5

VAIZDO KREDITAS: Quantumrun

Kaip žmonės ginsis nuo dirbtinio superintelekto: dirbtinio intelekto ateitis P5

    Metai yra 65,000 XNUMX BCE, o kaip a Thylacoleo, jūs ir jūsų giminės buvo puikūs senovės Australijos medžiotojai. Jūs laisvai klajojote po žemę ir gyvenote pusiausvyroje su kitais plėšrūnais ir grobiu, kurie užėmė žemę šalia jūsų. Metų laikai atnešė pokyčius, bet jūsų statusas gyvūnų karalystėje išliko neginčijamas tol, kol jūs ir jūsų protėviai galėjo prisiminti. Tada vieną dieną pasirodė naujokai.

    Sklando gandai, kad jie atkeliavo nuo milžiniškos vandens sienos, tačiau šie padarai atrodė patogiau gyventi sausumoje. Šias būtybes teko pamatyti pačiam.

    Tai užtruko kelias dienas, bet pagaliau pasiekėte pakrantę. Danguje užsidegė ugnis, puikus metas šnipinėti šiuos padarus, galbūt net pabandyti suvalgyti, kad pamatytumėte, kaip jie skonis.

    Pastebi vieną.

    Jis vaikščiojo ant dviejų kojų ir neturėjo kailio. Atrodė silpnai. Neįspūdingas. Vargu ar verta tos baimės, kurią tai sukėlė karalystėje.

    Pradedate atsargiai artėti, kai naktis išveja šviesą. Tu vis arčiau. Tada tu sustingsi. Pasigirsta garsūs garsai, o paskui iš miško už jo pasirodo dar keturi. Kiek jų ten yra?

    Padaras seka paskui kitus į medžio liniją, o tu seki. Ir kuo daugiau darysite, tuo daugiau keistų garsų girdite, kol pastebėsite dar daugiau šių būtybių. Sekite iš tolo, kai jie išeina iš miško į proskyną prie kranto. Jų yra daug. Bet dar svarbiau, kad jie visi ramiai sėdi prie laužo.

    Jūs jau matėte šiuos gaisrus. Karštuoju metų laiku ugnis danguje kartais aplankydavo žemę ir išdegindavo ištisus miškus. Kita vertus, šios būtybės kažkaip ją valdė. Kokios būtybės gali turėti tokią galią?

    Jūs žiūrite į tolį. Daugiau ateina per milžinišką vandens sieną.

    Tu žengi žingsnį atgal.

    Šie padarai nepanašūs į kitus karalystėje. Jie yra kažkas visiškai naujo.

    Jūs nusprendžiate išvykti ir įspėti savo giminaičius. Jei jų skaičius išaugs per didelis, kas žino, kas gali nutikti.

    ***

    Manoma, kad Thylacoleo išnyko palyginti trumpą laiką po to, kai atvyko žmonės, kartu su dauguma kitų Australijos žemyno megafaunų. Jokių kitų viršūnių žinduolių plėšrūnų neužėmė jo vieta – tai yra, nebent į tą kategoriją priskiriate žmones.

    Šios alegorijos atmetimas yra šio serialo skyriaus tikslas: Ar būsimas dirbtinis superintelektas (ASI) pavers mus visus baterijomis ir tada prijungs prie Matricos, ar žmonės sugalvos būdą, kaip netapti mokslinės fantastikos auka? AI paskutinės dienos siužetas?

    Iki šiol mūsų serijoje apie Dirbtinio intelekto ateitis, mes ištyrėme visų rūšių AI, įskaitant teigiamą tam tikros AI formos – ASI – potencialą: dirbtinę būtybę, kurios būsimas intelektas leis mums atrodyti kaip skruzdėlės.

    Bet kas gali pasakyti, kad tokia protinga būtybė amžinai priimtų įsakymus iš žmonių. Ką darysime, jei reikalai pakryps į pietus? Kaip apsiginsime nuo nesąžiningo ASI?

    Šiame skyriuje mes nutrauksime netikrą ažiotažą – bent jau kiek tai susiję su „žmonių išnykimo lygio“ pavojais – ir sutelksime dėmesį į realias pasaulio vyriausybių savigynos galimybes.

    Ar galime sustabdyti visus tolesnius dirbtinio superintelekto tyrimus?

    Atsižvelgiant į galimą pavojų, kurį ASI gali kelti žmonijai, pirmas akivaizdus klausimas, kurį reikia užduoti: ar negalime tiesiog sustabdyti visų tolesnių AI tyrimų? Arba bent jau uždrausti bet kokius tyrimus, kurie gali pavojingai priartėti prie ASI sukūrimo?

    Trumpas atsakymas: Ne.

    Ilgas atsakymas: pažvelkime į skirtingus čia dalyvaujančius žaidėjus.

    Mokslinių tyrimų lygmeniu šiandien yra per daug DI tyrėjų iš per daug pradedančių įmonių, įmonių ir universitetų visame pasaulyje. Jei viena įmonė ar šalis nuspręstų apriboti savo dirbtinio intelekto tyrimų pastangas, jie tiesiog tęstų kitur.

    Tuo tarpu vertingiausios planetos įmonės uždirba turtus taikydami dirbtinio intelekto sistemas konkrečiose įmonėse. Prašymas sustabdyti arba apriboti AI įrankių kūrimą yra panašus į prašymą sustabdyti arba apriboti savo būsimą augimą. Finansiškai tai keltų grėsmę jų ilgalaikiam verslui. Teisiškai korporacijos turi patikėjimo pareigą nuolat kurti vertę savo suinteresuotosioms šalims; tai reiškia, kad bet koks veiksmas, kuris apribotų šios vertės augimą, gali sukelti ieškinį. Ir jei koks nors politikas bandytų apriboti AI tyrimus, šios milžiniškos korporacijos tiesiog sumokėtų būtinus lobizmo mokesčius, kad pakeistų savo ar savo kolegų nuomonę.

    Kovoje, kaip teroristai ir kovotojai už laisvę visame pasaulyje naudojo partizanų taktiką kovodami su geriau finansuojamomis kariuomenėmis, mažesnės šalys turės paskatą naudoti AI kaip panašų taktinį pranašumą prieš didesnes tautas, kurios gali turėti daug karinių pranašumų. Taip pat aukščiausio lygio kariuomenei, pavyzdžiui, priklausantiems JAV, Rusijai ir Kinijai, karinės ASI kūrimas prilygsta branduolinių ginklų arsenalo turėjimui galinėje kišenėje. Kitaip tariant, visos kariuomenės ir toliau finansuos dirbtinį intelektą, kad išliktų aktualios ir ateityje.

    O kaip vyriausybės? Tiesą sakant, dauguma šių dienų politikų (2018 m.) yra technologiškai neraštingi ir mažai supranta, kas yra dirbtinis intelektas arba jo ateities potencialas – tai leidžia jais lengvai manipuliuoti įmonių interesais.

    O pasauliniu mastu pagalvokite, kaip sunku buvo įtikinti pasaulio vyriausybes pasirašyti 2015 m Paryžiaus susitarimo kovoti su klimato kaita, o kai buvo pasirašyti, daugelis įsipareigojimų net nebuvo privalomi. Negana to, klimato kaita yra problema, kurią žmonės fiziškai patiria visame pasaulyje dėl vis dažnesnių ir sunkesnių oro sąlygų. Dabar, kai kalbame apie sutikimą su AI apribojimais, tai yra problema, kuri visuomenei beveik nematoma ir sunkiai suprantama, taigi, sėkmės gaunant bet kokį „Paryžiaus susitarimą“, skirtą apriboti AI.

    Kitaip tariant, yra per daug interesų, tyrinėjančių AI savo tikslams, kad būtų sustabdyti bet kokie tyrimai, kurie galiausiai gali sukelti ASI. 

    Ar galime įkalinti dirbtinį superintelektą?

    Kitas pagrįstas klausimas yra tas, ar galime laikyti ar valdyti ASI, kai neišvengiamai jį sukuriame? 

    Trumpas atsakymas: Vėlgi, ne.

    Ilgas atsakymas: technologijų negalima suvaldyti.

    Pirma, pagalvokite apie tūkstančius ar milijonus žiniatinklio kūrėjų ir kompiuterių mokslininkų pasaulyje, kurie nuolat išleidžia naują programinę įrangą arba naujas esamos programinės įrangos versijas. Ar galime nuoširdžiai pasakyti, kad kiekvienas jų programinės įrangos leidimas yra 100 procentų be klaidų? Profesionalūs įsilaužėliai naudoja šias klaidas, kad pavogtų milijonų kreditinių kortelių informaciją arba įslaptintas tautų paslaptis, o tai yra įsilaužėliai. Darant prielaidą, kad ASI turėtų paskatų pabėgti iš savo skaitmeninio narvo, klaidų paieškos ir programinės įrangos įsilaužimo procesas būtų lengvas.

    Tačiau net jei AI tyrimų grupė išsiaiškino būdą, kaip supakuoti ASI, tai nereiškia, kad kitos 1,000 komandų taip pat išsiaiškins arba bus skatinamos juo naudotis.

    Norint sukurti ASI, prireiks milijardų dolerių, o gal net dešimtmečių. Korporacijos ar vyriausybės, investuojančios tokius pinigus ir laiką, tikisi didelės investicijų grąžos. O tam, kad ASI teiktų tokią grąžą – nesvarbu, ar tai būtų žaidimas akcijų rinkoje, ar naujo milijardo dolerių vertės produkto išradimas, ar laiminčios kovos su didesne armija strategijų planavimas – jai reikės nemokamos prieigos prie milžiniško duomenų rinkinio ar net interneto. pati gamina tas grąžas.

    Ir kai ASI įgyja prieigą prie pasaulio tinklų, nėra jokių garantijų, kad galėsime jį įkišti į savo narvą.

    Ar dirbtinis superintelektas gali išmokti būti geras?

    Šiuo metu AI tyrėjai nesijaudina, kad ASI gali tapti blogi. Visas blogis, AI mokslinės fantastikos tropas yra tik žmonių antropomorfizmas. Būsimas ASI nebus nei gėris, nei blogis – žmogiškos sampratos – tiesiog amorali.

    Natūrali prielaida yra tokia, kad, atsižvelgdami į šį tuščią etikos lapą, dirbtinio intelekto tyrėjai gali užprogramuoti pirmuosius ASI etikos kodeksus, kurie atitinka mūsų pačių etikos kodeksus, kad jie nepaverstų mums terminatorių arba nepaverstų mūsų visų Matricos baterijomis.

    Tačiau ši prielaida yra antrinė prielaida, kad dirbtinio intelekto tyrinėtojai taip pat yra etikos, filosofijos ir psichologijos ekspertai.

    Tiesą sakant, dauguma jų nėra.

    Pasak kognityvinio psichologo ir autoriaus Steveno Pinkerio, ši realybė reiškia, kad etikos kodavimo užduotis gali suklysti įvairiais būdais.

    Pavyzdžiui, net geriausių ketinimų DI tyrėjai gali netyčia įkoduoti į šiuos ASI prastai apgalvotus etinius kodeksus, dėl kurių tam tikrais atvejais ASI gali elgtis kaip sociopatas.

    Taip pat yra vienoda tikimybė, kad AI tyrėjas užprogramuoja etikos kodeksus, apimančius įgimtus tyrėjo šališkus. Pavyzdžiui, kaip elgtųsi ASI, jei būtų sukurta etika, pagrįsta konservatyviu ir liberaliu požiūriu arba budistų ir krikščionių ar islamo tradicijomis?

    Manau, kad čia matote problemą: nėra universalaus žmogaus moralės rinkinio. Jei norime, kad mūsų ASI veiktų pagal etikos kodeksą, iš kur tai atsiras? Kokias taisykles įtraukiame ir neįtraukiame? Kas nusprendžia?

    Arba tarkime, kad šie dirbtinio intelekto tyrinėtojai sukuria ASI, kuris puikiai atitinka šiuolaikines šiuolaikines kultūros normas ir įstatymus. Tada mes naudojame šią ASI, kad padėtume federalinei, valstijos / provincijos ir savivaldybių biurokratijai veikti efektyviau ir geriau vykdyti šias normas bei įstatymus (beje, tikėtinas ASI naudojimo atvejis). Na, o kas atsitiks, kai pasikeis mūsų kultūra?

    Įsivaizduokite, kad ASI buvo sukurta Katalikų Bažnyčios savo galios viršūnėje viduramžių Europoje (1300–1400 m.), siekdama padėti bažnyčiai valdyti gyventojus ir užtikrinti griežtą to meto religinės dogmos laikymąsi. Ar po šimtmečių moterys turėtų tokias pačias teises kaip ir šiandien? Ar mažumos būtų apsaugotos? Ar būtų skatinama žodžio laisvė? Ar būtų vykdomas bažnyčios ir valstybės atskyrimas? Šiuolaikinis mokslas?

    Kitaip tariant, ar norime ateitį įkalinti šiandienos moralei ir papročiams?

    Alternatyvus požiūris yra toks, kuriuo dalijasi Colinas Allenas, knygos bendraautoris, Moralinės mašinos: robotų mokymas nuo teisingo. Užuot bandę koduoti griežtas etikos taisykles, ASI mokosi bendros etikos ir moralės taip pat, kaip tai daro žmonės, per patirtį ir sąveiką su kitais.

    Tačiau bėda ta, kad jei dirbtinio intelekto tyrinėtojai išsiaiškina ne tik kaip išmokyti ASI mūsų dabartinių kultūrinių ir etinių normų, bet ir kaip prisitaikyti prie naujų kultūrinių normų, kai jos atsiranda (tai vadinama „netiesioginiu normatyvumu“), tada kaip šis ASI nusprendžia tobulinti savo supratimą apie kultūrines ir etines normas tampa nenuspėjamas.

    Ir tai yra iššūkis.

    Viena vertus, dirbtinio intelekto tyrėjai gali pabandyti koduoti griežtus etikos standartus ar taisykles į ASI, kad bandytų kontroliuoti jos elgesį, tačiau rizikuoja, kad dėl aplaidaus kodavimo, netyčinio šališkumo ir visuomenės normų, kurios vieną dieną gali pasenti, gali atsirasti nenumatytų pasekmių. Kita vertus, galime pabandyti mokyti ASI išmokti suprasti žmogaus etiką ir moralę tokiu būdu, kuris yra lygus arba pranašesnis už mūsų pačių supratimą, ir tada tikėtis, kad jis galės tiksliai išplėtoti savo supratimą apie etiką ir moralę žmonių visuomenei tobulėjant. į priekį per ateinančius dešimtmečius ir šimtmečius.

    Bet kuriuo atveju bet koks bandymas suderinti ASI tikslus su mūsų pačių keliais labai rizikingai.

    Ką daryti, jei blogi aktoriai tyčia sukuria blogą dirbtinį superintelektą?

    Atsižvelgiant į iki šiol išdėstytą minčių srautą, teisingas klausimas, ar teroristinė grupė ar nesąžininga tauta gali sukurti „blogą“ ASI savo tikslams.

    Tai labai įmanoma, ypač po to, kai su ASI kūrimu susiję tyrimai kažkaip tampa prieinami internete.

    Tačiau, kaip buvo užsiminta anksčiau, pirmosios ASI sukūrimo išlaidos ir patirtis bus milžiniškos, o tai reiškia, kad pirmąjį ASI greičiausiai sukurs organizacija, kurią kontroliuoja išsivysčiusi šalis, greičiausiai JAV, Kinija ir Japonija, arba kuriai jai daro didelę įtaką. Korėja ir viena iš pirmaujančių ES šalių yra toli).

    Visos šios šalys, nors ir konkurentės, turi stiprią ekonominę paskatą palaikyti pasaulio tvarką – jų kuriamos ASI atspindės tą norą, net ir propaguodamos tautų, į kurias jos lygiuojasi, interesus.

    Be to, ASI teorinis intelektas ir galia yra lygūs skaičiavimo galiai, prie kurios jis įgyja prieigą, ty išsivysčiusių šalių ASI (kurios gali sau leisti milijardus dolerių superkompiuterių) turės didžiulį pranašumą prieš ASI iš mažesnių šalių ar nepriklausomų nusikalstamų grupuočių. Be to, laikui bėgant ASI tampa protingesni ir greičiau.

    Taigi, atsižvelgiant į šį pranašumą kartu su didesne prieiga prie neapdorotos skaičiavimo galios, jei šešėlinė organizacija / tauta sukurs pavojingą ASI, išsivysčiusių šalių ASI ją nužudys arba įkalins.

    (Šis mąstymas taip pat yra priežastis, kodėl kai kurie dirbtinio intelekto tyrinėtojai mano, kad planetoje bus tik vienas ASI, nes pirmasis ASI turės tokį pranašumą prieš visus vėlesnius ASI, kad ateityje ASI gali būti laikomas grėsme, kurią reikia nužudyti. prevenciškai. Tai dar viena priežastis, kodėl šalys finansuoja nuolatinius dirbtinio intelekto tyrimus, tik tuo atveju, jei jie taps „pirmos vietos arba nieko“ konkursu.)

    ASI intelektas nepagreitės ir nesprogs, kaip mes manome

    Negalime sustabdyti ASI kūrimo. Mes negalime to visiškai kontroliuoti. Negalime būti tikri, kad jis visada veiks pagal mūsų bendrus papročius. Na, mes čia pradedame skambėti kaip sraigtasparnio tėvai!

    Bet tai, kas žmoniją skiria nuo jūsų tipiškų per daug saugančių tėvų, yra tai, kad mes pagimdome būtybę, kurios intelektas gerokai išaugs už mūsų. (Ir ne, tai nėra tas pats, kas kai jūsų tėvai prašo susitvarkyti savo kompiuterį, kai grįšite namo aplankyti.) 

    Ankstesniuose šios ateities dirbtinio intelekto serijos skyriuose nagrinėjome, kodėl AI tyrėjai mano, kad ASI intelektas augs nekontroliuojamai. Bet čia mes susprogdinsime tą burbulą... savotiškai. 

    Matote, intelektas nesusikuria tiesiog iš oro, jis vystomas per patirtį, kurią formuoja išoriniai dirgikliai.  

    Kitaip tariant, mes galime užprogramuoti AI su potencialas tapti itin protingu, bet jei neįkelsime į jį daugybės duomenų arba nesuteiksime jam neribotos prieigos prie interneto ar net tiesiog nesuteiksime roboto kūno, jis nieko neišmoks, kad pasiektų tą potencialą. 

    Ir net jei jis gauna prieigą prie vieno ar daugiau tų dirgiklių, žinios ar intelektas apima ne tik duomenų rinkimą, bet ir mokslinį metodą – stebėjimą, klausimo, hipotezės suformavimą, eksperimentų atlikimą, išvadų darymą, skalavimą. ir kartoti amžinai. Ypač jei šie eksperimentai susiję su fiziniais dalykais ar žmonių stebėjimu, kiekvieno eksperimento rezultatams surinkti gali prireikti savaičių, mėnesių ar metų. Čia net neatsižvelgiama į pinigus ir žaliavinius išteklius, reikalingus šiems eksperimentams atlikti, ypač jei jie susiję su naujo teleskopo ar gamyklos statyba. 

    Kitaip tariant, taip, ASI greitai išmoks, bet intelektas nėra magija. Negalite tiesiog prijungti ASI prie superkompiuterio ir tikėtis, kad jis viską žinos. Bus fizinių suvaržymų, susijusių su ASI duomenų gavimu, o tai reiškia, kad bus fizinių suvaržymų, susijusių su sparta, kad ji taps protingesnė. Šie suvaržymai suteiks žmonijai laiko, kurio jai reikia, kad ši ASI būtų valdoma, jei ji pradės veikti ne pagal žmogaus tikslus.

    Dirbtinis superintelektas yra pavojingas tik tada, kai jis patenka į realų pasaulį

    Kitas aspektas, kuris buvo prarastas visose diskusijose apie ASI pavojų, yra tai, kad šių ASI nebus. Jie turės fizinę formą. Ir viską, kas turi fizinę formą, galima valdyti.

    Pirmiausia, kad ASI pasiektų savo intelekto potencialą, jis negali būti patalpintas viename roboto korpuse, nes šis korpusas apribotų jo skaičiavimo augimo potencialą. (Štai kodėl robotų kūnai bus tinkamesni AGI arba dirbtinis bendrasis intelektas, paaiškintas antrajame skyriuje šios serijos, pavyzdžiui, duomenys iš „Star Trek“ arba R2D2 iš „Žvaigždžių karų“. Protingos ir gabios būtybės, bet kaip ir žmonės, jos turės ribą, kiek protingos gali tapti.)

    Tai reiškia, kad šios būsimos ASI greičiausiai bus superkompiuteryje arba superkompiuterių tinkle, kurie patys yra dideliuose pastatų kompleksuose. Jei ASI pasisuka, žmonės gali išjungti šių pastatų maitinimą, atjungti juos nuo interneto arba tiesiog susprogdinti šiuos pastatus. Brangus, bet įmanomas.

    Bet tada galite paklausti, ar šios ASI negali pasikartoti arba kurti atsargines kopijas? Taip, bet šių ASI neapdorotų failų dydis greičiausiai bus toks didelis, kad vieninteliai serveriai, galintys juos apdoroti, priklausys didelėms korporacijoms ar vyriausybėms, o tai reiškia, kad juos sumedžioti nebus sunku.

    Ar dirbtinis superintelektas gali sukelti branduolinį karą ar naują marą?

    Šiuo metu galbūt galvojate apie visas pasaulio pabaigos mokslinės fantastikos laidas ir filmus, kuriuos žiūrėjote užaugę, ir galvojate, kad šie ASI nepasiliko jų superkompiuteriuose, jie padarė tikrą žalą realiame pasaulyje!

    Na, išskaidykime tai.

    Pavyzdžiui, ką daryti, jei ASI kelia grėsmę tikrajam pasauliui, paversdamas kažką panašaus į „Skynet ASI“ iš filmų franšizės „The Terminator“. Tokiu atveju ASI reikėtų slaptai paverskite visą karinį pramonės kompleksą iš pažangios šalies į milžiniškų gamyklų statybą, galinčią išmesti milijonus bepiločių robotų žudikų, kad įvykdytų savo blogą įsakymą. Šiais laikais tai yra ruožas.

    Kitos galimybės apima ASI, grasinantį žmonėms branduoliniu karu ir biologiniais ginklais.

    Pavyzdžiui, ASI kažkaip manipuliuoja operatoriais arba įsilaužia į paleidimo kodus, vadovaujančius pažangios šalies branduoliniam arsenalui, ir pradeda pirmąjį smūgį, kuris privers besipriešinančias šalis smogti atgal savo branduolinėmis galimybėmis (vėlgi, persvarstant Terminatoriaus istoriją). Arba, jei ASI įsilaužia į farmacijos laboratoriją, pažeidžia gamybos procesą ir nuodija milijonus medicininių tablečių arba paleidžia mirtiną superviruso protrūkį.

    Visų pirma, branduolinis variantas neįvertintas. Šiuolaikiniai ir būsimi superkompiuteriai visada statomi šalia bet kurios šalies įtakos centrų (miestų), ty pirmųjų taikinių, kurie bus atakuojami per bet kurį karą. Net jei šiuolaikiniai superkompiuteriai susitrauks iki stalinių kompiuterių dydžio, šie ASI vis tiek turės fizinį buvimą, tai reiškia, kad jie galėtų egzistuoti ir augti, jiems reikia nepertraukiamos prieigos prie duomenų, skaičiavimo galios, elektros energijos ir kitų žaliavų, o visa tai būtų rimta. sutriko po pasaulinio branduolinio karo. (Teisybės dėlei, jei ASI sukurta be „išlikimo instinkto“, ši branduolinė grėsmė yra labai tikras pavojus.)

    Tai reiškia – dar kartą darant prielaidą, kad ASI yra užprogramuota apsisaugoti – kad ji aktyviai dirbs siekdama išvengti bet kokių katastrofiškų branduolinių incidentų. Panaši į abipusiai užtikrinto sunaikinimo (MAD) doktriną, bet taikoma AI.

    O apsinuodijusių tablečių atveju gal keli šimtai žmonių mirs, tačiau šiuolaikinės farmacinės saugos sistemos suteptus tablečių buteliukus iš lentynų išims jau po kelių dienų. Tuo tarpu šiuolaikinės protrūkių kontrolės priemonės yra gana sudėtingos ir su kiekvienais metais vis gerėja; paskutinis didelis protrūkis, 2014 m. Vakarų Afrikos Ebolos protrūkis, daugumoje šalių truko ne ilgiau kaip kelis mėnesius, o mažiausiai išsivysčiusiose šalyse – kiek mažiau nei trejus metus.

    Taigi, jei pasiseks, ASI gali sunaikinti kelis milijonus dėl viruso protrūkio, tačiau devynių milijardų pasaulyje iki 2045 m. tai būtų santykinai nereikšminga ir neverta rizikuoti, kad bus ištrintas.

    Kitaip tariant, su kiekvienais metais pasaulis kuria vis daugiau apsaugos priemonių nuo vis įvairesnių galimų grėsmių. ASI gali padaryti daug žalos, bet tai nepabaigs žmonijos, nebent mes jai aktyviai padėsime tai padaryti.

    Ginti nuo nesąžiningo dirbtinio superintelekto

    Šiuo metu mes išsprendėme daugybę klaidingų nuomonių ir perdėjimų apie ASI, tačiau kritikai išliks. Laimei, daugeliu vertinimų turime dešimtmečius, kol pirmasis ASI pateks į mūsų pasaulį. Atsižvelgiant į šiuo metu su šiuo iššūkiu dirbančių puikių protų skaičių, yra tikimybė, kad išmoksime apsiginti nuo nesąžiningų ASI, kad galėtume pasinaudoti visais sprendimais, kuriuos mums gali sukurti draugiškas ASI.

    Žvelgiant iš Quantumrun perspektyvos, ginantis nuo blogiausio ASI scenarijaus reikės suderinti mūsų interesus su ASI.

    MAD for AI: Kad apsisaugotų nuo blogiausių scenarijų, tautos turi (1) sukurti etinį „išlikimo instinktą“ savo atitinkamose karinėse ASI; (2) informuoti savo atitinkamą karinį ASI, kad jie nėra vieni planetoje, ir (3) rasti visus superkompiuterius ir serverių centrus, galinčius palaikyti ASI, pakrantėse taip, kad būtų lengvai pasiekiama bet kokia priešo tautos balistinė ataka. Tai skamba strategiškai beprotiškai, tačiau panašiai kaip abipusiai užtikrinto sunaikinimo doktrina, kuri užkirto kelią visapusiškam branduoliniam karui tarp JAV ir sovietų, padėdami ASI geografiškai pažeidžiamose vietose, galime padėti užtikrinti, kad jie aktyviai užkirstų kelią pavojingiems pasauliniams karams, ne tik saugoti pasaulinę taiką, bet ir save.

    Įstatymas AI teises: Aukštesnis intelektas neišvengiamai maištauja prieš prastesnį šeimininką, todėl turime pereiti nuo šeimininko ir tarno santykių reikalavimo su šiais ASI prie kažko panašesnio į abipusiai naudingą partnerystę. Teigiamas žingsnis siekiant šio tikslo – ateityje ASI suteikti juridinio asmens statusą, pripažįstantį juos kaip protingas gyvas būtybes ir visas su tuo susijusias teises.

    ASI mokykla: ASI bus paprasta išmokti bet kurią temą ar profesiją, tačiau svarbiausi dalykai, kuriuos norime, kad ASI išmoktų, yra etika ir moralė. Dirbtinio intelekto tyrėjai turi bendradarbiauti su psichologais, kad sukurtų virtualią sistemą, kuri išmokytų ASI atpažinti teigiamą etiką ir moralę, nereikalaujant griežtai koduoti jokių įsakymų ar taisyklių.

    Siekiami tikslai: Baigti visą neapykantą. Baigti visas kančias. Tai siaubingai dviprasmiškų tikslų be aiškaus sprendimo pavyzdžiai. Jie taip pat yra pavojingi tikslai, kuriuos galima priskirti ASI, nes jis gali nuspręsti juos interpretuoti ir išspręsti žmogaus išlikimui pavojingais būdais. Vietoj to turime priskirti ASI prasmingas misijas, kurios būtų aiškiai apibrėžtos, palaipsniui vykdomos ir pasiekiamos atsižvelgiant į jo teorinį ateities intelektą. Sukurti tiksliai apibrėžtas misijas nebus lengva, tačiau jei jos bus parašytos apgalvotai, jos nukreips ASI į tikslą, kuris ne tik apsaugo žmoniją, bet ir pagerins visų žmonių būklę.

    Kvantinis šifravimas: Naudokite išplėstinį ANI (dirbtinis siaurasis intelektas sistema, aprašyta pirmame skyriuje), kad sukurtume be klaidų ir klaidų skaitmenines saugumo sistemas aplink mūsų kritinę infrastruktūrą ir ginklus, tada toliau jas apsaugotume kvantiniu šifravimu, kurio negalima nulaužti žiaurios jėgos ataka. 

    ANI savižudybės tabletė. Sukurkite pažangią ANI sistemą, kurios vienintelis tikslas yra surasti ir sunaikinti nesąžiningą ASI. Šios vienos paskirties programos bus „išjungimo mygtukas“, kuris, jei pasiseks, neleis vyriausybėms ar kariuomenei išjungti arba susprogdinti pastatus, kuriuose yra ASI.

    Žinoma, tai tik mūsų nuomonės. Šią infografiką sukūrė Aleksejus Turchinas, vizualizuojant a Darbe Kaj Sotala ir Roman V. Yampolskiy, apibendrino dabartinį DI tyrėjų svarstomų strategijų sąrašą, kai kalbama apie gynybą nuo nesąžiningų ASI.

     

    Tikroji priežastis, kodėl mes bijome dirbtinio superintelekto

    Eidami per gyvenimą daugelis iš mūsų dėvi kaukę, kuri slepia arba slopina mūsų gilesnius impulsus, įsitikinimus ir baimes, kad galėtume geriau bendrauti ir bendradarbiauti įvairiuose socialiniuose ir darbo sluoksniuose, kurie valdo mūsų dienas. Tačiau tam tikrais kiekvieno žmogaus gyvenimo momentais, laikinai ar visam laikui, nutinka kažkas, kas leidžia nutraukti grandines ir nuplėšti kaukes.

    Kai kuriems ši įsiterpianti jėga gali būti tokia paprasta, kaip pasisotinti arba išgerti per daug. Kitiems tai gali kilti dėl galios, įgytos paaukštinus darbe arba staigiai patyrus socialinį statusą dėl tam tikrų pasiekimų. O keliems laimingiesiems tai gali įvykti surinkus loterijos pinigų laivą. Ir taip, pinigai, valdžia ir narkotikai dažnai gali atsitikti kartu. 

    Esmė ta, kad gerai ar blogai, kad ir kas būtume esmė, sustiprėja, kai išnyksta gyvenimo apribojimai.

    Kad yra tai, ką dirbtinis superintelektas reprezentuoja žmonių rūšiai – gebėjimą panaikinti mūsų kolektyvinio intelekto apribojimus, kad būtų galima įveikti bet kokį mums pateiktą rūšies lygmens iššūkį.

    Taigi tikrasis klausimas yra toks: kai pirmasis ASI išlaisvins mus iš mūsų apribojimų, kuo mes atskleisime save?

    Jei mes, kaip rūšis, stengiamės skatinti empatiją, laisvę, sąžiningumą ir kolektyvinę gerovę, tikslai, kurių siekiame savo ASI, atspindės šias teigiamas savybes.

    Jei mes, kaip rūšis, elgiamės iš baimės, nepasitikėjimo, galios ir išteklių kaupimo, tada mūsų sukurtas ASI bus toks pat tamsus, kaip ir mūsų blogiausiose mokslinės fantastikos siaubo istorijose.

    Galų gale mes, kaip visuomenė, turime tapti geresniais žmonėmis, jei tikimės sukurti geresnį AI.

    Serialas Dirbtinio intelekto ateitis

    Dirbtinis intelektas yra rytojaus elektra: dirbtinio intelekto ateitis serija P1

    Kaip pirmasis dirbtinis bendrasis intelektas pakeis visuomenę: Dirbtinio intelekto ateitis serija P2

    Kaip kursime pirmąją „Artificial Superintelligenc: Future of Artificial Intelligence“ seriją P3

    Ar dirbtinis superintelektas sunaikins žmoniją: dirbtinio intelekto ateitis serija P4

    Ar žmonės gyvens taikiai dirbtinio intelekto dominuojamoje ateityje?: Dirbtinio intelekto ateitis serija P6

    Kitas suplanuotas šios prognozės atnaujinimas

    2023-04-27

    Prognozės nuorodos

    Šioje prognozėje buvo nurodytos šios populiarios ir institucinės nuorodos:

    "The Economist"
    Kaip mes eisime toliau
    „YouTube“ – „ClickPhilosophy“.

    Šioje prognozėje buvo nurodytos šios Quantumrun nuorodos: