Com es defensaran els humans d'una superintel·ligència artificial: futur de la intel·ligència artificial P5

CRÈDIT DE LA IMATGE: Quantumrun

Com es defensaran els humans d'una superintel·ligència artificial: futur de la intel·ligència artificial P5

    L'any és el 65,000 aC, i com a Thylacoleo, tu i la teva espècie eres els grans caçadors de l'antiga Austràlia. Vau vagar lliurement per la terra i vau viure en equilibri amb els companys depredadors i preses que ocupaven la terra al vostre costat. Les estacions van portar canvis, però el vostre estatus al regne animal va romandre inqüestionat durant el temps que vosaltres i els vostres avantpassats podríeu recordar. Llavors un dia van aparèixer els nouvinguts.

    Diuen els rumors que van arribar des de la paret d'aigua gegant, però aquestes criatures semblaven més còmodes vivint a terra. Havies de veure aquestes criatures per tu mateix.

    Va trigar uns dies, però finalment vas arribar a la costa. El foc del cel s'estava calent, un moment perfecte per espiar aquestes criatures, potser fins i tot provar de menjar-se'n una per veure el gust que tenien.

    En veus un.

    Caminava sobre dues cames i no tenia pelatge. Semblava feble. Poc impressionant. No val la pena la por que provocava entre el regne.

    Comenceu a acostar-vos amb cura mentre la nit persegueix la llum. T'estàs apropant. Llavors et congeles. Sonen sorolls forts i després apareixen quatre més del bosc darrere d'ell. Quants n'hi ha?

    La criatura segueix als altres fins a la línia dels arbres, i tu segueixes. I com més ho feu, més sons estranys escolteu fins que detecteu encara més d'aquestes criatures. Se segueix a distància mentre surten del bosc cap a una clariana a la vora. N'hi ha molts. Però el més important és que tots estan asseguts amb calma al voltant d'un foc.

    Heu vist aquests incendis abans. A l'estació calorosa, el foc del cel de vegades visitava la terra i cremava boscos sencers. Aquestes criatures, en canvi, d'alguna manera ho estaven controlant. Quin tipus de criatures poden tenir aquest poder?

    Mires a la distància. N'apunten més per sobre de la paret d'aigua gegant.

    Fas un pas enrere.

    Aquestes criatures no són com les altres del regne. Són quelcom totalment nou.

    Decidiu marxar i aviseu els vostres familiars. Si el seu nombre creix massa, qui sap què pot passar.

    ***

    Es creu que el Thylacoleo es va extingir relativament poc després de l'arribada dels humans, juntament amb la majoria de la resta de megafauna del continent australià. Cap altre depredador de mamífers àpex va ocupar el seu lloc, és a dir, tret que compteu els humans en aquesta categoria.

    Reproduir aquesta al·legoria és el focus d'aquest capítol de la sèrie: una futura superintel·ligència artificial (ASI) ens convertirà a tots en bateries i després ens connectarà a la Matrix o els humans trobaran una manera d'evitar ser víctima d'una ciència-ficció? La trama del dia del judici final de la IA?

    Fins ara a la nostra sèrie sobre el Futur de la Intel·ligència Artificial, hem explorat tot tipus d'IA, inclòs el potencial positiu d'una forma particular d'IA, l'ASI: un ésser artificial la intel·ligència futura del qual ens farà semblar formigues en comparació.

    Però qui pot dir que un ésser tan intel·ligent acceptaria rebre ordres dels humans per sempre. Què farem si les coses van cap al sud? Com ens defensarem d'un ASI canalla?

    En aquest capítol, tallarem el bombo fals, almenys pel que fa als perills del "nivell d'extinció humana", i ens centrarem en les opcions realistes d'autodefensa disponibles per als governs mundials.

    Podem aturar totes les investigacions posteriors sobre una superintel·ligència artificial?

    Tenint en compte els riscos potencials que un ASI podria suposar per a la humanitat, la primera pregunta òbvia que cal fer és: no podem aturar tota investigació posterior sobre IA? O almenys prohibir qualsevol investigació que ens pugui apropar perillosament a la creació d'un ASI?

    Resposta breu: No.

    Resposta llarga: mirem els diferents actors implicats aquí.

    A nivell de recerca, avui dia hi ha massa investigadors d'IA de massa startups, empreses i universitats d'arreu del món. Si una empresa o país decidís limitar els seus esforços de recerca en IA, simplement continuarien en un altre lloc.

    Mentrestant, les empreses més valuoses del planeta estan fent fortuna amb l'aplicació de sistemes d'IA als seus negocis específics. Demanar-los que aturin o limiten el seu desenvolupament d'eines d'IA és semblant a demanar-los que aturin o limiten el seu creixement futur. Financerament, això amenaçaria el seu negoci a llarg termini. Legalment, les corporacions tenen la responsabilitat fiduciaria de generar valor contínuament per als seus grups d'interès; això significa que qualsevol acció que limitaria el creixement d'aquest valor podria donar lloc a una demanda. I si algun polític intentés limitar la investigació en IA, aquestes corporacions gegants només pagarien les taxes de pressió necessàries per canviar d'opinió o la dels seus col·legues.

    Per al combat, de la mateixa manera que els terroristes i els lluitadors per la llibertat d'arreu del món han utilitzat tàctiques de guerrilla per lluitar contra militars millor finançats, les nacions més petites tindran un incentiu per utilitzar la IA com un avantatge tàctic similar contra nacions més grans que poden tenir una sèrie d'avantatges militars. De la mateixa manera, per als principals exèrcits, com els que pertanyen als EUA, Rússia i la Xina, construir un ASI militar és igual a tenir un arsenal d'armes nuclears a la butxaca posterior. En altres paraules, tots els militars continuaran finançant la IA només per mantenir-se rellevants en el futur.

    Què tal els governs? La veritat és que la majoria dels polítics d'avui (2018) són tecnològicament analfabets i entenen poc què és la IA o el seu potencial futur; això fa que siguin fàcils de manipular pels interessos corporatius.

    I a nivell global, considereu com de difícil va ser convèncer els governs mundials de signar el 2015 Acord de París per fer front al canvi climàtic, i un cop signades, moltes de les obligacions ni tan sols eren vinculants. No només això, el canvi climàtic és un problema que la gent està experimentant físicament a nivell mundial a causa d'esdeveniments meteorològics cada cop més freqüents i greus. Ara, quan parlem d'acordar límits a la IA, aquest és un problema que és en gran part invisible i amb prou feines comprensible per al públic, així que bona sort per acceptar qualsevol tipus d'"Acord de París" per limitar la IA.

    En altres paraules, hi ha massa interessos que investiguen la IA per a les seves pròpies finalitats per aturar qualsevol investigació que eventualment pugui conduir a un ASI. 

    Podem engabiar una superintel·ligència artificial?

    La següent pregunta raonable és: podem enganxar o controlar un ASI un cop inevitablement en creem un? 

    Resposta breu: de nou, no.

    Resposta llarga: la tecnologia no es pot contenir.

    D'una banda, només cal tenir en compte els milers i milions de desenvolupadors web i informàtics del món que produeixen constantment nou programari o noves versions del programari existent. Podem dir sincerament que cadascuna de les seves versions de programari està 100% lliure d'errors? Aquests errors són els que fan servir els pirates informàtics professionals per robar la informació de la targeta de crèdit de milions o els secrets classificats de les nacions, i aquests són pirates informàtics humans. Per a un ASI, suposant que tingués un incentiu per escapar de la seva gàbia digital, llavors el procés de trobar errors i trencar el programari seria una brisa.

    Però, fins i tot si un equip d'investigació d'IA va trobar una manera d'empaquetar un ASI, això no vol dir que els propers 1,000 equips també ho descobriran o estaran incentivats per utilitzar-lo.

    Es necessitaran milers de milions de dòlars i potser fins i tot dècades per crear un ASI. Les corporacions o governs que inverteixen aquest tipus de diners i temps esperaran un retorn significatiu de la seva inversió. I perquè un ASI ofereixi aquest tipus de rendiment, ja sigui per jugar a la borsa o inventar un nou producte de mil milions de dòlars o planificar una estratègia guanyadora per lluitar contra un exèrcit més gran, necessitarà accés gratuït a un conjunt de dades gegant o fins i tot a Internet. si mateix per produir aquests rendiments.

    I una vegada que un ASI accedeix a les xarxes del món, no hi ha garanties que el puguem tornar a posar a la seva gàbia.

    Pot una superintel·ligència artificial aprendre a ser bona?

    Ara mateix, els investigadors d'IA no estan preocupats perquè un ASI esdevingui dolent. Tot el malvat trope de ciència-ficció d'IA és només que els humans es tornin a antropomorfitzar. Un futur ASI no serà ni bo ni dolent —conceptes humans— simplement amoral.

    Aleshores, la hipòtesi natural és que donada aquesta llista ètica en blanc, els investigadors d'IA poden programar els primers codis ètics ASI que estiguin en línia amb els nostres, de manera que no acabi desencadenant-nos Terminators o convertint-nos a tots en bateries Matrix.

    Però aquesta hipòtesi es basa en una hipòtesi secundària que els investigadors d'IA també són experts en ètica, filosofia i psicologia.

    De fet, la majoria no ho són.

    Segons el psicòleg i autor cognitiu Steven Pinker, aquesta realitat significa que la tasca de codificar l'ètica pot anar malament de diferents maneres.

    Per exemple, fins i tot els investigadors d'IA més ben intencionats poden codificar sense voler aquests codis ètics ASI mal pensats que, en determinats escenaris, poden fer que l'ASI actuï com un sociópata.

    De la mateixa manera, hi ha la mateixa probabilitat que un investigador d'IA programi codis ètics que incloguin els biaixos innats de l'investigador. Per exemple, com es comportaria un ASI si es construïa amb una ètica derivada d'una perspectiva conservadora versus liberal, o d'una tradició budista enfront d'una cristiana o islàmica?

    Crec que veus el problema aquí: no hi ha cap conjunt universal de morals humanes. Si volem que la nostra ASI actuï segons un codi ètic, d'on vindrà? Quines normes incloem i excloem? Qui decideix?

    O diguem que aquests investigadors d'IA creen un ASI que s'ajusta perfectament a les normes i lleis culturals modernes actuals. A continuació, utilitzem aquest ASI per ajudar les burocràcies federals, estatals/provincials i municipals a funcionar de manera més eficient i fer complir millor aquestes normes i lleis (per cert, un cas d'ús probable per a un ASI). Bé, què passa quan la nostra cultura canvia?

    Imagineu-vos que l'Església Catòlica va crear una ASI a l'altura del seu poder durant l'Europa medieval (s. 1300-1400) amb l'objectiu d'ajudar l'església a gestionar la població i assegurar l'adhesió estricta al dogma religiós de l'època. Segles després, les dones tindrien els mateixos drets que avui? Estarien protegides les minories? Es promouria la llibertat d'expressió? S'aplicaria la separació de l'església i l'estat? Ciència moderna?

    És a dir, volem empresonar el futur a la moral i els costums actuals?

    Un enfocament alternatiu és el compartit per Colin Allen, coautor del llibre, Màquines morals: ensenyar robots des del mal. En lloc d'intentar codificar regles ètiques rígides, fem que l'ASI aprengui ètica i moral comuns de la mateixa manera que ho fem els humans, a través de l'experiència i les interaccions amb els altres.

    El problema aquí, però, és si els investigadors d'IA descobreixen no només com ensenyar a un ASI les nostres normes culturals i ètiques actuals, sinó també com adaptar-se a les noves normes culturals a mesura que sorgeixen (una cosa anomenada "normativitat indirecta"), llavors com aquest ASI decideix evolucionar la seva comprensió de les normes culturals i ètiques esdevé impredictible.

    I aquest és el repte.

    D'una banda, els investigadors d'IA poden provar de codificar normes o normes ètiques estrictes a l'ASI per intentar controlar-ne el comportament, però corren el risc que s'introdueixin conseqüències imprevistes a partir d'una codificació descuidada, un biaix no intencionat i normes socials que algun dia poden quedar obsoletes. D'altra banda, podem intentar entrenar l'ASI per aprendre a entendre l'ètica i la moral humana d'una manera que sigui igual o superior a la nostra pròpia comprensió i després esperar que pugui evolucionar amb precisió la seva comprensió de l'ètica i la moral a mesura que la societat humana progressa. endavant durant les properes dècades i segles.

    De qualsevol manera, qualsevol intent d'alinear els objectius d'una ASI amb els nostres presenta un gran risc.

    Què passa si els actors dolents creen intencionadament una superintel·ligència artificial malvada?

    Atesa la línia de pensament esbossada fins ara, és una pregunta justa preguntar-se si és possible que un grup terrorista o una nació canalla creï un ASI "malvat" per als seus propis fins.

    Això és molt possible, sobretot després que la investigació relacionada amb la creació d'un ASI estigui disponible en línia d'alguna manera.

    Però, com s'ha insinuat anteriorment, els costos i l'experiència que comporta la creació del primer ASI seran enormes, el que significa que el primer ASI probablement el crearà una organització que estigui controlada o molt influenciada per una nació desenvolupada, probablement els EUA, la Xina i el Japó ( Corea i un dels països líders de la UE són molt llunyans).

    Tots aquests països, tot i que són competidors, tenen cadascun un fort incentiu econòmic per mantenir l'ordre mundial: els ASI que creen reflectiran aquest desig, fins i tot mentre promouen els interessos de les nacions amb les quals s'alineen.

    A més d'això, la intel·ligència i el poder teòrics d'un ASI són iguals a la potència informàtica a la qual té accés, és a dir, els ASI de les nacions desenvolupades (que poden permetre's un munt de mil milions de dòlars). superordinadors) tindrà un avantatge enorme sobre els ASI de nacions més petites o grups criminals independents. A més, els ASI creixen més intel·ligents i més ràpidament amb el temps.

    Així doncs, donat aquest avantatge, combinat amb un major accés a la potència informàtica en brut, si una organització/nació fosca crea un ASI perillós, els ASI dels països desenvolupats el mataran o l'encastraran.

    (Aquesta línia de pensament també és la raó per la qual alguns investigadors d'IA creuen que només hi haurà un ASI al planeta, ja que el primer ASI tindrà una avantatge tan gran sobre tots els ASI successius que podria veure els futurs ASI com a amenaces de matar. de manera preventiva. Aquesta és una altra raó per la qual les nacions estan finançant la investigació continuada en IA, per si es converteix en una competició de "primer lloc o res".)

    La intel·ligència ASI no s'accelerarà ni explotarà com pensem

    No podem evitar que es creï un ASI. No ho podem controlar del tot. No podem estar segurs que actuarà sempre d'acord amb els nostres costums compartits. Vaja, comencem a semblar pares d'helicòpters per aquí!

    Però el que separa la humanitat del vostre pare sobreprotector típic és que estem donant a llum un ésser la intel·ligència del qual creixerà molt més enllà de la nostra. (I no, no és el mateix que quan els teus pares et demanen que arreglis el seu ordinador sempre que tornis a casa a visitar-los). 

    En capítols anteriors d'aquesta sèrie de futur de la intel·ligència artificial, vam explorar per què els investigadors d'IA pensen que la intel·ligència d'un ASI creixerà més enllà del control. Però aquí, esclatarem aquesta bombolla... una mica. 

    Ja veus, la intel·ligència no només es crea de la nada, sinó que es desenvolupa a través de l'experiència que està modelada per estímuls externs.  

    En altres paraules, podem programar una IA amb el potencial per arribar a ser super intel·ligent, però tret que hi puguem un munt de dades o li donem accés sense restriccions a Internet o fins i tot només li donem un cos de robot, no aprendrà res per assolir aquest potencial. 

    I encara que tingui accés a un o més d'aquests estímuls, el coneixement o la intel·ligència implica més que només la recollida de dades, implica el mètode científic: fer una observació, formular una pregunta, una hipòtesi, fer experiments, fer una conclusió, esbandir i repetir per sempre. Sobretot si aquests experiments impliquen coses físiques o l'observació d'éssers humans, els resultats de cada experiment poden trigar setmanes, mesos o anys a recollir-se. Això ni tan sols té en compte els diners i els recursos bruts necessaris per dur a terme aquests experiments, sobretot si impliquen la construcció d'un nou telescopi o fàbrica. 

    En altres paraules, sí, un ASI aprendrà ràpidament, però la intel·ligència no és màgica. No podeu connectar un ASI a un superordinador sinó esperar que ho sàpiga tot. Hi haurà limitacions físiques per a l'adquisició de dades per part de l'ASI, és a dir, hi haurà limitacions físiques per a la velocitat que es faci més intel·ligent. Aquestes limitacions donaran a la humanitat el temps que necessita per posar els controls necessaris en aquest ASI si comença a actuar fora de línia amb els objectius humans.

    Una superintel·ligència artificial només és perillosa si surt al món real

    Un altre punt que s'ha perdut en tot aquest debat sobre el perill de l'ASI és que aquests ASI no existiran en cap dels dos. Tindran una forma física. I qualsevol cosa que tingui una forma física es pot controlar.

    En primer lloc, perquè un ASI assoleixi el seu potencial d'intel·ligència, no es pot allotjar dins d'un sol cos de robot, ja que aquest cos limitaria el seu potencial de creixement informàtic. (És per això que els cossos de robot seran més apropiats per als AGI o intel·ligències generals artificials explicades al capítol dos d'aquesta sèrie, com Data de Star Trek o R2D2 de Star Wars. Éssers intel·ligents i capaços, però com els humans, tindran un límit per a la seva intel·ligència.)

    Això vol dir que aquests futurs ASI probablement existiran dins d'un superordinador o xarxa de superordinadors que es troben allotjats en grans complexos d'edificis. Si un ASI gira, els humans poden apagar l'alimentació d'aquests edificis, tallar-los d'Internet o simplement bombardejar aquests edificis directament. Car, però factible.

    Però llavors us podríeu preguntar, aquests ASI no es poden replicar o fer una còpia de seguretat? Sí, però la mida del fitxer en brut d'aquests ASI serà probablement tan gran que els únics servidors que els puguin gestionar pertanyin a grans corporacions o governs, el que significa que no serà difícil de caçar.

    Pot una superintel·ligència artificial desencadenar una guerra nuclear o una nova plaga?

    En aquest moment, potser penseu en tots els programes i pel·lícules de ciència-ficció del dia del judici final que heu vist en créixer i penseu que aquests ASI no es van quedar dins dels seus superordinadors, sinó que van fer un dany real al món real!

    Bé, anem a desglossar-los.

    Per exemple, què passa si un ASI amenaça el món real transformant-se en una cosa semblant a un ASI Skynet de la franquícia de pel·lícules, The Terminator. En aquest cas, l'ASI ho hauria de fer en secret enganyar tot un complex industrial militar d'una nació avançada per construir fàbriques gegants que poden produir milions de robots drons assassins per fer la seva mala voluntat. En aquests dies i edats, això és un tram.

    Altres possibilitats inclouen un ASI que amenaça els humans amb una guerra nuclear i armes biològiques.

    Per exemple, un ASI d'alguna manera manipula els operadors o pirateja els codis de llançament que comanda l'arsenal nuclear d'una nació avançada i llança un primer atac que obligarà els països contraris a contraatacar amb les seves pròpies opcions nuclears (de nou, repetint la història de fons de Terminator). O si un ASI entra en un laboratori farmacèutic, manipula el procés de fabricació i enverina milions de píndoles mèdiques o desencadena un brot mortal d'algun supervirus.

    En primer lloc, l'opció nuclear està fora del plat. Els superordinadors moderns i futurs sempre es construeixen a prop de centres (ciutats) d'influència dins d'un país determinat, és a dir, els primers objectius a ser atacats durant una guerra determinada. Fins i tot si els superordinadors actuals es redueixen a la mida dels ordinadors de sobretaula, aquests ASI encara tindran una presència física, això vol dir que existeixen i creixen, necessiten un accés ininterromput a les dades, la potència de càlcul, l'electricitat i altres matèries primeres, tot això seria greu. deteriorat després d'una guerra nuclear mundial. (Per ser justos, si es crea un ASI sense un "instint de supervivència", aleshores aquesta amenaça nuclear és un perill molt real.)

    Això significa, de nou, suposant que l'ASI està programat per protegir-se, que treballarà activament per evitar qualsevol incident nuclear catastròfic. Com la doctrina de la destrucció mútuament assegurada (MAD), però aplicada a la IA.

    I en el cas de les píndoles enverinades, potser moriran uns quants centenars de persones, però els sistemes de seguretat farmacèutics moderns veuran que les ampolles de píndoles contaminades es treuen dels prestatges en qüestió de dies. Mentrestant, les mesures modernes de control dels brots són força sofisticades i milloren cada any que passa; l'últim brot important, el brot d'Ebola de l'Àfrica Occidental del 2014, no va durar més d'uns quants mesos a la majoria de països i poc menys de tres anys als països menys desenvolupats.

    Per tant, si té sort, un ASI pot acabar amb uns quants milions amb un brot viral, però en un món de nou mil milions el 2045, això seria relativament insignificant i no valdria la pena el risc de ser eliminat.

    En altres paraules, amb cada any que passa, el món desenvolupa cada vegada més garanties contra un ventall cada cop més gran de possibles amenaces. Un ASI pot fer una quantitat important de dany, però no acabarà amb la humanitat tret que l'ajudem activament a fer-ho.

    Defensant-se d'una superintel·ligència artificial canalla

    En aquest punt, hem abordat una sèrie d'idees errònies i exageracions sobre els ASI, i, tanmateix, els crítics es mantindran. Afortunadament, segons la majoria de les estimacions, tenim dècades abans que el primer ASI entri al nostre món. I tenint en compte la quantitat de grans ments que treballen actualment en aquest repte, és probable que aprenem a defensar-nos de l'ASI canalla perquè puguem beneficiar-nos de totes les solucions que un ASI amigable pot crear per a nosaltres.

    Des de la perspectiva de Quantumrun, defensar-se del pitjor escenari d'ASI implicarà alinear els nostres interessos amb els ASI.

    MAD per la IA: Per defensar-se dels pitjors escenaris, les nacions han de (1) crear un "instint de supervivència" ètic als seus respectius ASI militars; (2) informar els seus respectius ASI militars que no estan sols al planeta i (3) localitzar tots els superordinadors i centres de servidors que puguin donar suport a un ASI al llarg de les costes a poca distància de qualsevol atac balístic d'una nació enemiga. Això sona estratègicament boig, però semblant a la doctrina de la destrucció mútuament assegurada que va impedir una guerra nuclear total entre els EUA i els soviètics, col·locant els ASI en llocs geogràficament vulnerables, podem ajudar a garantir que prevenguin de manera activa guerres globals perilloses, no només per salvaguardar la pau global però també ells mateixos.

    Legislar els drets d'IA: Un intel·lecte superior inevitablement es rebel·larà contra un amo inferior, per això hem d'allunyar-nos d'exigir una relació amo-servidor amb aquests ASI a alguna cosa més semblant a una associació mútuament beneficiosa. Un pas positiu cap a aquest objectiu és donar a l'ASI un estatus de persona jurídica futura que els reconegui com a éssers vius intel·ligents i tots els drets que això comporta.

    Escola ASI: Qualsevol tema o professió serà senzill per a un ASI d'aprendre, però les assignatures més importants que volem que l'ASI domini són l'ètica i la moral. Els investigadors d'IA han de col·laborar amb psicòlegs per idear un sistema virtual per entrenar un ASI per reconèixer l'ètica i la moral positives per si mateix sense la necessitat de codificar cap tipus de manament o regla.

    Objectius assolibles: Acabar amb tot odi. Acabar amb tot patiment. Aquests són exemples d'objectius horriblement ambigus sense una solució clara. També són objectius perillosos per assignar a un ASI, ja que podria optar per interpretar-los i resoldre'ls de maneres perilloses per a la supervivència humana. En comptes d'això, hem d'assignar missions significatives a l'ASI que estiguin clarament definides, executades gradualment i assolibles donat el seu intel·lecte futur teòric. Crear missions ben definides no serà fàcil, però si s'escriuen amb cura, centraran un ASI cap a un objectiu que no només mantingui la humanitat segura, sinó que millori la condició humana per a tothom.

    Xifratge quàntic: Utilitzeu un ANI avançat (intel·ligència artificial estreta sistema descrit al capítol XNUMX) per construir sistemes de seguretat digital sense errors/errors al voltant de la nostra infraestructura i armes crítiques, i després protegir-los encara més darrere del xifratge quàntic que no pot ser piratejat per un atac de força bruta. 

    Píndola suïcida ANI. Creeu un sistema ANI avançat l'únic propòsit del qual és buscar i destruir ASI canalla. Aquests programes d'un sol propòsit serviran com a "botó d'apagat" que, si tenen èxit, evitaran que els governs o els militars hagin de desactivar o explotar edificis que allotgen ASI.

    Per descomptat, aquestes són només les nostres opinions. La següent infografia ha estat creada per Alexei Turchin, visualitzant a treball de recerca de Kaj Sotala i Roman V. Yampolskiy, que va resumir la llista actual d'estratègies que els investigadors d'IA estan considerant a l'hora de defensar-se contra l'ASI canalla.

     

    La veritable raó per la qual tenim por d'una superintel·ligència artificial

    Passant per la vida, molts de nosaltres portem una màscara que amaga o reprimeix els nostres impulsos, creences i pors més profunds per socialitzar millor i col·laborar dins dels diferents cercles socials i laborals que regeixen els nostres dies. Però en determinats moments de la vida de cadascú, ja sigui de manera temporal o permanent, passa alguna cosa que ens permet trencar les nostres cadenes i arrencar-nos les màscares.

    Per a alguns, aquesta força d'intervenció pot ser tan senzill com posar-se droga o beure'n massa. Per a d'altres, pot provenir del poder obtingut a través d'una promoció laboral o d'un cop sobtat en el vostre estatus social gràcies a algun èxit. I per a uns pocs afortunats, pot provenir d'aconseguir un munt de diners de loteria. I sí, els diners, el poder i les drogues sovint poden passar junts. 

    La qüestió és, per bé o per mal, qui siguem al nucli s'amplifica quan les restriccions de la vida es fonen.

    Que és el que representa la superintel·ligència artificial per a l'espècie humana: la capacitat de desfer les limitacions de la nostra intel·ligència col·lectiva per vèncer qualsevol repte a nivell d'espècie que se'ns presenta.

    Així doncs, la pregunta real és: un cop el primer ASI ens alliberi de les nostres limitacions, qui ens revelarem com a nosaltres mateixos?

    Si com a espècie actuem cap a l'avenç de l'empatia, la llibertat, l'equitat i el benestar col·lectiu, aleshores els objectius en què ens fixem el nostre ASI reflectiran aquests atributs positius.

    Si com a espècie actuem per por, desconfiança, acumulació de poder i recursos, aleshores l'ASI que creem serà tan fosc com els que es troben a les nostres pitjors històries de terror de ciència-ficció.

    Al cap i a la fi, com a societat hem de ser millors persones si esperem crear una millor IA.

    Sèrie El futur de la intel·ligència artificial

    La intel·ligència artificial és l'electricitat del demà: el futur de la sèrie d'intel·ligència artificial P1

    Com la primera intel·ligència general artificial canviarà la societat: el futur de la intel·ligència artificial sèrie P2

    Com crearem la primera sèrie Artificial Superintelligenc: Future of Artificial Intelligence P3

    Una superintel·ligència artificial exterminarà la humanitat: sèrie P4 del futur de la intel·ligència artificial

    Viurem els humans en pau en un futur dominat per les intel·ligències artificials?: sèrie P6 de Future of Artificial Intelligence

    Propera actualització programada per a aquesta previsió

    2023-04-27

    Referències de previsió

    Es van fer referència als següents enllaços populars i institucionals per a aquesta previsió:

    Com arribarem al següent

    Es van fer referència als següents enllaços Quantumrun per a aquesta previsió: