Ĉu Artefarita Superinteligenteco ekstermos la homaron? Estonteco de artefarita inteligenteco P4

BILDA KREDITO: Quantumrun

Ĉu Artefarita Superinteligenteco ekstermos la homaron? Estonteco de artefarita inteligenteco P4

    Estas certaj inventoj, kiujn nacioj eniras ĉion. Ĉi tiuj estas inventoj kie ĉio dependas de esti unua, kaj io ajn malpli povus signifi strategian kaj mortigan minacon al la supervivo de nacio.

    Ĉi tiuj historio difinantaj inventoj ne okazas ofte, sed kiam ili okazas, la mondo ĉesas kaj antaŭvidebla estonteco fariĝas nebuleca.

    La lasta tia invento aperis dum la plej malbona de WWII. Dum la nazioj akiris grundon sur ĉiuj frontoj en la malnova mondo, en la nova mondo, specife ene de sekreta armea bazo ekster Los Alamos, la aliancanoj estis laborantaj pri armilo por fini ĉiujn armilojn.

    La projekto estis malgranda komence, sed tiam kreskis por dungi 130,000 homojn de Usono, UK, kaj Kanado, inkluzive de multaj el la plej grandaj pensuloj de la mondo tiutempe. Kodita la Projekto Manhattan kaj donita senliman buĝeton - proksimume 23 miliardojn USD en 2018 dolaroj - ĉi tiu armeo de homa inĝenieco finfine sukcesis krei la unuan atombombon. Ne longe post, WWII finiĝis kun du atomaj eksplodoj.

    Ĉi tiuj nukleaj armiloj enkondukis la atoman epokon, enkondukis profunde novan fonton de energio kaj donis al la homaro la kapablon ekstermi sin en minutoj—io, kion ni evitis malgraŭ la Malvarma Milito.

    La kreado de artefarita superinteligenteco (ASI) estas ankoraŭ alia historio difina invento kies potenco (kaj pozitiva kaj detrua) multe superas la atombombon.

    En la lasta ĉapitro de la serio Estonteco de Artefarita Inteligenteco, ni esploris kio estas ASI kaj kiel esploristoj planas iam konstrui tian. En ĉi tiu ĉapitro, ni rigardos, kiajn organizojn gvidas esploradon pri artefarita inteligenteco (AI), kion ASI volos post kiam ĝi akiros homsimilan konscion, kaj kiel ĝi povus minaci la homaron se mis administrita aŭ se oni falos sub la influo de ne tiom belaj reĝimoj.

    Kiu laboras por konstrui artefaritan superinteligentecon?

    Konsiderante kiom signifa la kreado de ASI estos por la homa historio kaj kiom granda avantaĝo ĝi donos al sia kreinto, ne surpriziĝu aŭdi, ke multaj grupoj nerekte laboras pri ĉi tiu projekto.

    (Per nerekte, ni celas labori pri AI-esplorado, kiu poste kreos la unuan artefarita ĝenerala inteligenteco (AGI), tio mem kondukos al la unua ASI baldaŭ poste.)

    Komence, se temas pri la titoloj, la klaraj gvidantoj en altnivela AI-esplorado estas la ĉefaj teknologiaj firmaoj en Usono kaj Ĉinio. En la usona fronto, ĉi tio inkluzivas kompaniojn kiel Google, IBM kaj Microsoft, kaj en Ĉinio, ĉi tio inkluzivas kompaniojn kiel Tencent, Baidu kaj Alibaba. Sed ĉar esplori AI estas relative malmultekosta kompare kun disvolvi ion fizikan, kiel pli bonan nuklean reaktoron, ĉi tio ankaŭ estas kampo, en kiu pli malgrandaj organizoj povas konkuri ankaŭ, kiel universitatoj, noventreprenoj kaj... malklaraj organizoj (uzu viajn fiajn imagojn de Bond por tiu).

    Sed malantaŭ la scenoj, la vera antaŭenpuŝo malantaŭ AI-esplorado venas de registaroj kaj iliaj militistoj. La ekonomia kaj armea premio esti la unua krei ASI estas nur tro bonega (skizita sube) por riski malfrui. Kaj la danĝeroj de esti lasta estas neakcepteblaj, almenaŭ por certaj reĝimoj.

    Konsiderante ĉi tiujn faktorojn, la relative malaltan koston de esplorado de AI, la senfinaj komercaj aplikoj de altnivela AI, kaj la ekonomia kaj armea avantaĝo de esti unua krei ASI, multaj AI-esploristoj opinias, ke la kreado de ASI estas neevitebla.

    Kiam ni kreos artefaritan superinteligentecon

    En nia ĉapitro pri AGI-oj, ni menciis, kiel enketo de ĉefaj AI-esploristoj kredis, ke ni kreos la unuan AGI optimisme antaŭ 2022, realisme antaŭ 2040, kaj pesimisme antaŭ 2075.

    Kaj en nia lasta ĉapitro, ni skizis kiel krei ASI estas ĝenerale la rezulto de instrukcii AGI mem-plibonigi sin senfine kaj doni al ĝi la rimedojn kaj liberecon fari tion.

    Tial, dum AGI ankoraŭ povas daŭri ĝis kelkaj jardekoj por inventi, krei ASI povas daŭri nur kelkajn jarojn pli.

    Ĉi tiu punkto estas simila al la koncepto de "komputika superpendanto", sugestita en papero, kunskribita de gvidaj AI-pensuloj Luke Muehlhauser kaj Nick Bostrom. Esence, se la kreado de AGI daŭre postrestis malantaŭ la nuna progreso en komputadkapacito, funkciigita de la Leĝo de Moore, tiam kiam esploristoj inventos AGI, estos tiom malmultekosta komputa potenco disponebla ke la AGI havos la kapaciton. ĝi bezonas rapide salti al la nivelo de ASI.

    Alivorte, kiam vi finfine legas la titolojn anoncantajn, ke iu teknika kompanio inventis la unuan veran AGI, tiam atendu la anoncon de la unua ASI ne longe poste.

    Ene de la menso de artefarita superinteligenteco?

    Bone, do ni konstatis, ke multaj grandaj ludantoj kun profundaj poŝoj esploras AI. Kaj tiam post kiam la unua AGI estos inventita, ni vidos mondajn registarojn (militistaj) verdlumigi la puŝon al ASI baldaŭ post tio por esti la unuaj se temas pri venki en la tutmonda AI (ASI) armila vetkuro.

    Sed post kiam ĉi tiu ASI estas kreita, kiel ĝi pensos? Kion ĝi volos?

    La amika hundo, la zorgema elefanto, la dolĉa roboto—kiel homoj, ni havas kutimon provi rilati al aferoj per antropologiado de ili, t.e. aplikante homajn trajtojn al aferoj kaj bestoj. Tial la natura unua supozo kiun homoj havas kiam pensas pri ASI estas ke post kiam ĝi iel akiras konscion, ĝi pensos kaj kondutos simile al ni.

    Nu, ne nepre.

    percepto. Unue, kio plej emas forgesi estas ke percepto estas relativa. La manieroj ni pensas estas formitaj de nia medio, de niaj spertoj, kaj precipe de nia biologio. Unue klarigite en ĉapitro tri de nia Estonteco de Homa Evoluo serio, konsideru la ekzemplon de nia cerbo:

    Estas nia cerbo kiu helpas nin kompreni la mondon ĉirkaŭ ni. Kaj ĝi faras tion ne flosante super niaj kapoj, ĉirkaŭrigardante kaj kontrolante nin per Xbox-regilo; ĝi faras tion per estante kaptita ene de skatolo (niaj noggins) kaj prilaborado de ajnaj informoj, kiujn ĝi estas donita de niaj sensaj organoj—niaj okuloj, nazo, oreloj, ktp.

    Sed same kiel surduloj aŭ blinduloj vivas multe pli malgrandajn vivojn kompare kun kapablaj homoj, pro la limoj, kiujn ilia handikapo metas al kiel ili povas percepti la mondon, la samon povas esti dirita por ĉiuj homoj pro la limoj de niaj bazaj. aro de sensaj organoj.

    Konsideru ĉi tion: Niaj okuloj perceptas malpli ol dek biliononon de ĉiuj lum-ondoj. Ni ne povas vidi gamaradiojn. Ni ne povas vidi rentgenradiojn. Ni ne povas vidi ultraviola lumon. Kaj ne komencu min pri infraruĝo, mikroondoj kaj radiondoj!

    Ĉio ŝerco flanken, imagu, kia estus via vivo, kiel vi povus percepti la mondon, kiom malsame via menso povus funkcii, se vi povus vidi pli ol la eta peceto de lumo, kiun viaj okuloj nuntempe permesas. Same, imagu kiel vi perceptus la mondon, se via flarsento egalus tiun de hundo aŭ se via aŭdsenso egalus tiun de elefanto.

    Kiel homoj, ni esence vidas la mondon tra okultruo, kaj tio reflektiĝas en la mensoj, kiujn ni evoluis por kompreni tiun limigitan percepton.

    Dume, la unua ASI naskiĝos ene de superkomputilo. Anstataŭ organoj, la enigaĵoj kiujn ĝi aliros inkluzivas gigantajn datumarojn, eble (verŝajne) eĉ aliron al la Interreto mem. Esploristoj povus doni al ĝi aliron al la CCTV-fotiloj kaj mikrofonoj de tuta urbo, la sensajn datumojn de virabeloj kaj satelitoj, kaj eĉ la fizikan formon de robotkorpo aŭ korpoj.

    Kiel vi povus imagi, menso naskita ene de superkomputilo, kun rekta aliro al Interreto, al milionoj da elektronikaj okuloj kaj oreloj kaj tuta gamo da aliaj altnivelaj sensiloj ne nur pensos malsame ol ni, sed menso kiu povas havi sencon. de ĉiuj tiuj sensaj enigaĵoj devus esti senfine superaj ankaŭ al ni. Ĉi tio estas menso kiu estos tute fremda al nia propra kaj al iu ajn alia vivoformo sur la planedo.

    celoj. La alia afero, kiun homoj supozas, estas, ke post kiam ASI atingas iun nivelon de superinteligenteco, ĝi tuj realigos la deziron elpensi siajn proprajn celojn kaj celojn. Sed tio ankaŭ ne nepre veras.

    Multaj AI-esploristoj kredas, ke la superinteligenteco kaj ĝiaj celoj de ASI estas "ortogonalaj", tio estas, sendepende de kiom inteligenta ĝi fariĝas, la celoj de ASI restos la samaj. 

    Do ĉu AI estas origine kreita por desegni pli bonan vindotukon, maksimumigi rendimenton sur la borsmerkato, aŭ strategis manierojn venki malamikon sur la batalkampo, post kiam ĝi atingas la nivelon de ASI, la origina celo ne ŝanĝiĝos; kio ŝanĝos estas la efikeco de la ASI por atingi tiujn celojn.

    Sed ĉi tie kuŝas la danĝero. Se ASI kiu optimumigas sin al specifa celo, tiam ni pli bone estu certaj, ke ĝi optimumigas al celo, kiu konformas al la celoj de la homaro. Alie, la rezultoj povas fariĝi mortigaj.

    Ĉu artefarita superinteligenteco prezentas ekzistecan riskon por la homaro?

    Kio do se ASI estas liberigita sur la mondo? Se ĝi optimumiĝas por regi la borsmerkaton aŭ certigi usonan armean superecon, ĉu la ASI ne memenhavos sin ene de tiuj specifaj celoj?

    Eble.

    Ĝis nun ni diskutis kiel ASI estos obsedita de la celo(j) kiujn ĝi origine estis asignita kaj malhumane kompetenta en la postkuro de tiuj celoj. La kapto estas, ke racia agento persekutos siajn celojn per la plej efikaj rimedoj eblaj krom se ĝi donas kialon ne fari.

    Ekzemple, la racia agento elpensos gamon da subceloj (t.e. celoj, instrumentaj celoj, paŝoŝtonoj) kiuj helpos ĝin survoje al atingado de sia finfina celo. Por homoj, nia ŝlosila subkonscia celo estas reproduktado, transdonado de viaj genoj (te nerekta senmorteco). La subceloj al tiu celo ofte povas inkludi:

    • Travivi, alirante manĝaĵon kaj akvon, kreski kaj fortiĝi, lerni defendi vin aŭ investante en diversaj formoj de protekto, ktp. 
    • Altiri kunulon, per ekzercado, disvolvado de allogan personeco, vestiĝi elegante, ktp.
    • Havante idojn, ricevante edukon, akirante altan pagan laboron, aĉetante la kaptaĵojn de mezklasa vivo, ktp.

    Por la granda plimulto el ni, ni sklavigos tra ĉiuj ĉi tiuj subceloj, kaj multaj aliaj, kun la espero ke finfine, ni atingos ĉi tiun finfinan celon de reproduktado.

    Sed se ĉi tiu finfina celo, aŭ eĉ iu el la pli gravaj subceloj, estus minacataj, multaj el ni farus defendajn agojn ekster niaj moralaj komfortzonoj - tio inkluzivas trompi, ŝteli aŭ eĉ mortigi.

    Same, en la besta regno, ekster la limoj de homa moralo, multaj bestoj ne pensus dufoje pri mortigado de io ajn, kio minacis sin aŭ siajn idojn.

    Estonta ASI ne estos malsama.

    Sed anstataŭ idoj, la ASI fokusiĝos al la origina celo por kiu ĝi estis kreita, kaj en la postkuro de ĉi tiu celo, se ĝi trovas apartan grupon de homoj, aŭ eĉ la tutan homaron, estas obstaklo en la postkuro de siaj celoj. , do ... ĝi faros la racian decidon.

    (Jen kie vi povas konekti ajnan AI-rilatan, finjuĝan scenaron, pri kiu vi legis en via plej ŝatata sciencfikcia libro aŭ filmo.)

    Ĉi tiu estas la plej malbona kazo pri AI-esploristoj vere maltrankviliĝas. La ASI ne agos pro malamo aŭ malbono, nur indiferenteco, same kiel kiel konstruskipo ne pensos dufoje pri buldozado de formikmonteto en la procezo de konstruado de nova plurdoma turo.

    Flankonoto. Je ĉi tiu punkto, iuj el vi eble demandas: "Ĉu AI-esploristoj ne povas simple redakti la kernajn celojn de ASI post la fakto, se ni trovos, ke ĝi agas?"

    Ne vere.

    Post kiam ASI maturiĝas, ĉiu provo redakti sian originan celon (j) povas esti vidita kiel minaco, kaj unu kiu postulus ekstremajn agojn por defendi sin. Uzante la tutan homan reproduktan ekzemplon de pli frue, estas preskaŭ kvazaŭ ŝtelisto minacus ŝteli bebon el la utero de atendanta patrino—vi povas esti certa, ke patrino prenos ekstremajn rimedojn por protekti sian infanon.

    Denove, ni ne parolas pri kalkulilo ĉi tie, sed pri "viva" estaĵo, kaj iu, kiu iam fariĝos multe pli inteligenta ol ĉiuj homoj sur la planedo kune.

    La nekonata

    Malantaŭ la fablo de Pandora Skatolo estas malpli konata vero, kiun homoj ofte forgesas: malfermi la skatolon estas neevitebla, se ne de vi ol de iu alia. Malpermesita scio estas tro tenta por resti enfermita por ĉiam.

    Tial provi atingi tutmondan interkonsenton por ĉesigi ĉiujn esplorojn pri AI, kiu povus konduki al ASI, estas sencela—estas tro multaj organizoj laborantaj pri ĉi tiu teknologio kaj oficiale kaj en la ombro.

    Finfine, ni havas neniun ideon, kion ĉi tiu nova ento, ĉi tiu ASI signifos al socio, al teknologio, al politiko, paco kaj milito. Ni homoj estas inventontaj fajron denove kaj kien ĉi tiu kreaĵo kondukas nin estas tute nekonata.

    Reirante al la unua ĉapitro de ĉi tiu serio, la sola afero, kiun ni scias certe, estas, ke inteligenteco estas potenco. Inteligenteco estas kontrolo. Homoj povas hazarde viziti la plej danĝerajn bestojn de la mondo ĉe siaj lokaj zooj ne ĉar ni estas fizike pli fortaj ol ĉi tiuj bestoj, sed ĉar ni estas signife pli inteligentaj.

    Konsiderante la eblajn interesojn implikitajn, de ASI uzanta sian grandegan intelekton por fari agojn kiuj povas rekte aŭ preterintence minaci la supervivon de la homa raso, ni ŝuldas ĝin al ni almenaŭ provi desegni sekurigilojn kiuj permesos al homoj resti en la ŝoforo. sidloko—ĉi estas la temo de la sekva ĉapitro.

    Serio Estonteco de Artefarita Inteligenteco

    Q1: Artefarita Inteligenteco estas la morgaŭa elektro

    Q2: Kiel la unua Artefarita Ĝenerala Inteligenteco ŝanĝos socion

    Q3: Kiel ni kreos la unuan Artefaritan Superinteligentecon

    Q5: Kiel homoj defendos kontraŭ Artefarita Superinteligenteco

    Q6: Ĉu homoj vivos pace en estonteco regata de artefarita inteligenteco?

    Venonta planita ĝisdatigo por ĉi tiu prognozo

    2025-09-25

    Prognozaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu prognozo:

    la ekonomikisto
    Kiel ni venos al la sekva

    La sekvaj Quantumrun-ligiloj estis referencitaj por ĉi tiu prognozo: