Como se defenderán os humanos contra unha superintelixencia artificial: o futuro da intelixencia artificial P5

CRÉDITO DA IMAXE: Quantumrun

Como se defenderán os humanos contra unha superintelixencia artificial: o futuro da intelixencia artificial P5

    O ano é 65,000 a.C., e como a Thylacoleo, ti e os teus eran os grandes cazadores da antiga Australia. Percorreches a terra libremente e viviches en equilibrio cos compañeiros depredadores e presas que ocupaban a terra xunto a ti. As estacións trouxeron cambios, pero o teu estado no reino animal permaneceu indiscutible durante todo o tempo que ti e os teus antepasados ​​lembrabas. Entón un día apareceron novos.

    Os rumores di que chegaron do muro de auga xigante, pero estas criaturas parecían máis cómodas vivindo na terra. Tiveches que ver estas criaturas por ti mesmo.

    Tardaron uns días, pero finalmente chegaches á costa. O lume no ceo estaba prendendo, un momento perfecto para espiar estas criaturas, quizais incluso probar a comer unha para ver como sabían.

    Vostede ve un.

    Camiñaba sobre dúas patas e non tiña pelaje. Parecía débil. Pouco impresionante. A penas paga a pena o medo que estaba a causar no reino.

    Comeza a achegarse coidadosamente mentres a noite persegue a luz. Estás cada vez máis preto. Despois conxelas. Soan ruídos fortes e despois aparecen catro máis deles fóra do bosque detrás del. Cantos hai?

    A criatura segue aos demais na liña das árbores, e ti segues. E canto máis fas, máis sons estraños escoitas ata que detectas aínda máis destas criaturas. Segue a distancia mentres saen do bosque cara a un claro da beira. Hai moitos deles. Pero o máis importante é que todos están tranquilos sentados arredor dun lume.

    Xa viches estes incendios antes. Na estación quente, o lume do ceo ás veces visitaba a terra e queimaba bosques enteiros. Estas criaturas, en cambio, dalgunha maneira o controlaban. Que tipo de criaturas poden posuír tal poder?

    Miras ao lonxe. Máis están chegando sobre o muro de auga xigante.

    Das un paso atrás.

    Estas criaturas non son como as outras do reino. Son algo totalmente novo.

    Vostede decide marchar e avisar aos seus familiares. Se o seu número crece demasiado, quen sabe o que pode pasar.

    ***

    Crese que o Thylacoleo extinguiuse relativamente pouco despois da chegada dos humanos, xunto coa maioría da outra megafauna do continente australiano. Ningún outro depredador de mamíferos ápices ocupou o seu lugar, é dicir, a menos que contedes os humanos nesa categoría.

    Xogar con esta alegoría é o foco deste capítulo da serie: ¿Una futura superintelixencia artificial (ASI) converteranos a todos en baterías e despois conectaranos a Matrix ou os humanos descubrirán unha forma de evitar ser vítimas dunha ciencia ficción? Trama do día do final da IA?

    Ata agora na nosa serie sobre o Futuro da intelixencia artificial, exploramos todo tipo de IA, incluíndo o potencial positivo dunha forma particular de IA, o ASI: un ser artificial cuxa futura intelixencia nos fará parecer formigas en comparación.

    Pero quen pode dicir que un ser tan intelixente aceptaría recibir ordes dos humanos para sempre. Que faremos se as cousas van cara ao sur? Como nos defenderemos contra un ASI canalla?

    Neste capítulo, cortaremos o bombo falso, polo menos no que se refire aos perigos do "nivel de extinción humana", e centrarémonos nas opcións realistas de autodefensa dispoñibles para os gobernos mundiais.

    Podemos deter todas as investigacións posteriores sobre unha superintelixencia artificial?

    Tendo en conta os posibles riscos que un ASI podería supoñer para a humanidade, a primeira pregunta obvia que se debe facer é: non podemos deter todas as investigacións posteriores sobre a IA? Ou polo menos prohibir calquera investigación que nos poida achegar perigosamente á creación dun ASI?

    Resposta curta: n.

    Resposta longa: vexamos os diferentes xogadores implicados aquí.

    A nivel de investigación, hoxe hai demasiados investigadores de IA procedentes de demasiadas startups, empresas e universidades de todo o mundo. Se unha empresa ou país decide limitar os seus esforzos de investigación en IA, simplemente continuaría noutro lugar.

    Mentres tanto, as empresas máis valiosas do planeta están facendo fortuna coa aplicación de sistemas de IA aos seus negocios específicos. Pedirlles que deteñan ou limiten o seu desenvolvemento de ferramentas de IA é semellante a pedirlles que deteñan ou limiten o seu crecemento futuro. Financeiramente, isto ameazaría o seu negocio a longo prazo. Xuridicamente, as corporacións teñen a responsabilidade fiduciaria de crear valor continuamente para as súas partes interesadas; iso significa que calquera acción que limitase o crecemento dese valor podería dar lugar a unha demanda. E se algún político tentase limitar a investigación da IA, entón estas corporacións xigantes só pagarían as taxas de lobby necesarias para cambiar de opinión ou de opinión dos seus colegas.

    Para o combate, do mesmo xeito que os terroristas e os loitadores pola liberdade de todo o mundo utilizaron tácticas de guerrilla para loitar contra militares mellor financiados, as nacións máis pequenas terán un incentivo para usar a IA como vantaxe táctica similar contra as nacións máis grandes que poden ter unha serie de vantaxes militares. Do mesmo xeito, para os principais exércitos, como os pertencentes a EE. UU., Rusia e China, construír un ASI militar está á par de ter un arsenal de armas nucleares no peto traseiro. Noutras palabras, todos os exércitos seguirán financiando a IA só para seguir sendo relevantes no futuro.

    Que tal os gobernos? A verdade, a maioría dos políticos hoxe en día (2018) son tecnoloxicamente analfabetos e entenden pouco o que é a IA ou o seu potencial futuro; isto fai que sexan fáciles de manipular polos intereses corporativos.

    E a nivel global, considere o difícil que foi convencer aos gobernos mundiais de que asinasen o 2015 Acordo de París para facer fronte ao cambio climático, e unha vez asinadas, moitas das obrigas nin sequera eran vinculantes. Non só iso, o cambio climático é un problema que a xente está experimentando fisicamente no mundo a través de eventos meteorolóxicos cada vez máis frecuentes e severos. Agora, cando se fala de aceptar límites á IA, este é un problema que é en gran parte invisible e apenas comprensible para o público, así que moita sorte para conseguir a aceptación de calquera tipo de "Acordo de París" para limitar a IA.

    Noutras palabras, hai demasiados intereses na investigación da IA ​​para os seus propios fins para deter calquera investigación que poida levar a un ASI. 

    Podemos engaiolar unha superintelixencia artificial?

    A seguinte pregunta razoable é podemos engaiolar ou controlar un ASI unha vez que inevitablemente creamos un? 

    Resposta curta: de novo, non.

    Resposta longa: a tecnoloxía non se pode conter.

    Por un lado, só tes en conta os miles ou millóns de desenvolvedores web e informáticos do mundo que producen constantemente novo software ou novas versións do software existente. Podemos dicir honestamente que cada unha das súas versións de software está 100 por cento libre de erros? Estes erros son os que usan os hackers profesionais para roubar a información da tarxeta de crédito de millóns ou os segredos clasificados das nacións, e estes son hackers humanos. Para un ASI, supoñendo que tivese un incentivo para escapar da súa gaiola dixital, o proceso de atopar erros e romper o software sería moi sinxelo.

    Pero aínda que un equipo de investigación de intelixencia artificial descubrise unha forma de encaixar un ASI, iso non significa que os próximos 1,000 equipos tamén o descubran ou sexan incentivados para usalo.

    Levará miles de millóns de dólares e quizais ata décadas crear un ASI. As corporacións ou gobernos que invisten este tipo de diñeiro e tempo esperarán un retorno significativo do seu investimento. E para que unha ASI ofreza ese tipo de retorno, xa sexa para xogar co mercado de valores ou inventar un novo produto de mil millóns de dólares ou planificar unha estratexia gañadora para loitar contra un exército máis grande, necesitará acceso gratuíto a un conxunto de datos xigante ou mesmo a Internet. para producir eses retornos.

    E unha vez que un ASI obtén acceso ás redes do mundo, non hai garantías de que poidamos metelo de novo na súa gaiola.

    Pode unha superintelixencia artificial aprender a ser boa?

    Nestes momentos, os investigadores de IA non están preocupados de que un ASI se volva mal. Todo o malvado tropo de ciencia ficción da IA ​​é só que os humanos se antropomorfizan de novo. Un futuro ASI non será nin bo nin mal —conceptos humanos— simplemente amoral.

    O suposto natural é que, dada esta lista ética en branco, os investigadores de IA poden programar os primeiros códigos éticos de ASI que estean en liña cos nosos para que non acabe soltando Terminators sobre nós ou converténdonos a todos en baterías de Matrix.

    Pero esta suposición constitúe unha suposición secundaria de que os investigadores de IA tamén son expertos en ética, filosofía e psicoloxía.

    A verdade, a maioría non o son.

    Segundo o psicólogo cognitivo e autor Steven Pinker, esta realidade significa que a tarefa de codificar a ética pode ir mal de varias maneiras diferentes.

    Por exemplo, incluso os investigadores de IA mellor intencionados poden codificar inadvertidamente estes códigos éticos ASI mal pensados ​​que en certos escenarios poden facer que o ASI actúe como un sociópata.

    Do mesmo xeito, hai a mesma probabilidade de que un investigador de IA programe códigos éticos que inclúan os prexuízos innatos do investigador. Por exemplo, como se comportaría un ASI se se construíse cunha ética derivada dunha perspectiva conservadora versus liberal, ou dunha tradición budista fronte a unha cristiá ou islámica?

    Creo que ves o problema aquí: non hai un conxunto universal de moral humana. Se queremos que a nosa ASI actúe por un código ético, de onde sairá? Que regras incluímos e excluímos? Quen decide?

    Ou digamos que estes investigadores de IA crean un ASI que está perfectamente en liña coas normas e leis culturais modernas actuais. Despois empregamos este ASI para axudar ás burocracias federais, estatais/provinciais e municipais a funcionar de forma máis eficiente e facer cumprir mellor estas normas e leis (por certo, un caso de uso probable para un ASI). Ben, que pasa cando a nosa cultura cambia?

    Imaxina que unha ASI foi creada pola Igrexa Católica no momento álxido do seu poder durante a Europa Medieval (1300-1400) co obxectivo de axudar á igrexa a xestionar a poboación e garantir un estrito cumprimento do dogma relixioso da época. Séculos despois, as mulleres gozarían dos mesmos dereitos que hoxe? Estarían protexidas as minorías? Fomentaríase a liberdade de expresión? Imporíase a separación da Igrexa e do Estado? Ciencia moderna?

    Noutras palabras, queremos encarcerar o futuro ás morais e costumes actuais?

    Un enfoque alternativo é o compartido por Colin Allen, coautor do libro, Máquinas morais: ensinando robots ben dende mal. En lugar de tentar codificar regras éticas ríxidas, temos que a ASI aprende a ética e a moral comúns do mesmo xeito que o fan os humanos, a través da experiencia e das interaccións cos demais.

    O problema aquí, non obstante, é se os investigadores de IA non só descubren como ensinarlle a un ASI as nosas normas culturais e éticas actuais, senón tamén como adaptarse ás novas normas culturais a medida que xorden (algo chamado "normatividade indirecta"). esta ASI decide evolucionar a súa comprensión das normas culturais e éticas faise imprevisible.

    E ese é o reto.

    Por unha banda, os investigadores de IA poden tentar codificar normas ou estándares éticos estritos no ASI para intentar controlar o seu comportamento, pero corren o risco de que se introduzan consecuencias imprevistas por codificación descoidada, sesgos non intencionados e normas sociais que algún día poden quedar obsoletas. Por outra banda, podemos tentar adestrar ao ASI para aprender a comprender a ética e a moral humana dun xeito igual ou superior ao noso propio entendemento e despois esperar que poida evolucionar con precisión a súa comprensión da ética e a moral a medida que a sociedade humana progresa. avanzar nas próximas décadas e séculos.

    De calquera xeito, calquera intento de aliñar os obxectivos dunha ASI cos nosos presenta un gran risco.

    E se os malos actores crean a propósito unha superintelixencia artificial malvada?

    Dado o pensamento descrito ata agora, é unha pregunta xusta preguntarse se é posible que un grupo terrorista ou unha nación canalla cree un ASI "malvado" para os seus propios fins.

    Isto é moi posible, especialmente despois de que as investigacións relacionadas coa creación dun ASI estean dispoñibles en liña dalgún xeito.

    Pero, como se insinuou anteriormente, os custos e a experiencia que implica a creación do primeiro ASI serán enormes, o que significa que o primeiro ASI probablemente será creado por unha organización que estea controlada ou moi influenciada por unha nación desenvolvida, probablemente os Estados Unidos, China e Xapón. Corea e un dos países líderes da UE son tiros lonxanos).

    Todos estes países, aínda que competidores, teñen cada un un forte incentivo económico para manter a orde mundial; os ASI que crean reflectirán ese desexo, aínda que promovan os intereses das nacións coas que se aliñan.

    Ademais diso, a intelixencia teórica e o poder dun ASI é igual á potencia informática á que accede, é dicir, os ASI dos países desenvolvidos (que poden permitirse un montón de millóns de dólares). supercomputadores) terá unha enorme vantaxe sobre os ASI de nacións máis pequenas ou de grupos criminais independentes. Ademais, os ASI crecen máis intelixentes e máis rápido co paso do tempo.

    Entón, dado este inicio, combinado cun maior acceso á potencia informática bruta, se unha organización/nación sombría crea un ASI perigoso, os ASI das nacións desenvolvidas matarán ou engaiolarán.

    (Esta liña de pensamento tamén é o motivo polo que algúns investigadores de IA cren que só haberá un ASI no planeta, xa que o primeiro ASI terá unha vantaxe tan grande sobre todos os ASI posteriores que podería ver os futuros ASI como ameazas para ser eliminados). de forma preventiva. Esta é outra razón pola que as nacións financian a investigación continua en IA, por se se converte nun concurso de "primeiro lugar ou nada".)

    A intelixencia ASI non se acelerará nin explotará como pensamos

    Non podemos evitar que se cree un ASI. Non podemos controlalo por completo. Non podemos estar seguros de que actuará sempre de acordo cos nosos costumes compartidos. Caramba, estamos empezando a soar como pais de helicópteros aquí!

    Pero o que separa á humanidade do teu típico pai sobreprotector é que estamos dando a luz a un ser cuxa intelixencia crecerá moito máis alá da nosa. (E non, non é o mesmo que cando os teus pais che piden que arranxas o seu ordenador cada vez que chegas a casa de visita). 

    Nos capítulos anteriores desta serie sobre o futuro da intelixencia artificial, exploramos por que os investigadores de IA pensan que a intelixencia dun ASI crecerá fóra do control. Pero aquí, estalaremos esa burbulla... algo así. 

    Ves, a intelixencia non só se crea a partir da nada, senón que se desenvolve a través da experiencia que está moldeada por estímulos externos.  

    Noutras palabras, podemos programar unha IA co potencial para facerse super intelixente, pero a non ser que carguemos nela unha tonelada de datos ou lle demos acceso sen restricións a Internet ou incluso só lle demos un corpo robot, non aprenderá nada para alcanzar ese potencial. 

    E aínda que teña acceso a un ou máis deses estímulos, o coñecemento ou a intelixencia implica algo máis que recoller datos, implica o método científico: facer unha observación, formular unha pregunta, unha hipótese, realizar experimentos, sacar unha conclusión, lavar. e repetir para sempre. Especialmente se estes experimentos implican cousas físicas ou observación de seres humanos, os resultados de cada experimento poden tardar semanas, meses ou anos en recollerse. Isto nin sequera ten en conta o diñeiro e os recursos brutos necesarios para levar a cabo estes experimentos, especialmente se implican a construción dun novo telescopio ou fábrica. 

    Noutras palabras, si, un ASI aprenderá rapidamente, pero a intelixencia non é máxica. Non podes conectar un ASI a un supercomputador e esperar que o saiba todo. Haberá restricións físicas para a adquisición de datos por parte da ASI, o que significa que haberá limitacións físicas para a velocidade coa que se faga máis intelixente. Estas limitacións darán á humanidade o tempo que precisa para poñer os controis necesarios sobre este ASI se comeza a actuar fóra de liña cos obxectivos humanos.

    Unha superintelixencia artificial só é perigosa se chega ao mundo real

    Outro punto que se perde en todo este debate sobre o perigo de ASI é que estes ASI non existirán en ningún dos dous. Terán unha forma física. E calquera cousa que teña unha forma física pódese controlar.

    En primeiro lugar, para que un ASI alcance o seu potencial de intelixencia, non se pode aloxar nun só corpo de robot, xa que este corpo limitaría o seu potencial de crecemento informático. (É por iso que os corpos do robot serán máis apropiados para os AGI ou intelixencias xerais artificiais explicadas no capítulo dous desta serie, como Data de Star Trek ou R2D2 de Star Wars. Seres intelixentes e capaces, pero como os humanos, terán un límite no que poden ser intelixentes).

    Isto significa que estes futuros ASI probablemente existan dentro dunha supercomputadora ou rede de supercomputadoras que estean aloxadas en grandes complexos de edificios. Se un ASI se transforma en talón, os humanos poden desconectar estes edificios, cortalos de Internet ou simplemente bombardear estes edificios. Caro, pero factible.

    Pero entón podes preguntar: non poden estes ASI replicarse ou facer unha copia de seguridade? Si, pero o tamaño do ficheiro en bruto destes ASI probablemente sexa tan grande que os únicos servidores que poden xestionalos pertencen a grandes corporacións ou gobernos, o que significa que non será difícil de cazar.

    Pode unha superintelixencia artificial provocar unha guerra nuclear ou unha nova praga?

    Neste punto, podes estar pensando en todos os programas e películas de ciencia ficción do fin do mundo que viu cando creces e pensando que estes ASI non se quedaron dentro dos seus supercomputadores, senón que fixeron dano real no mundo real.

    Ben, imos desglosar estes.

    Por exemplo, que pasa se un ASI ameaza o mundo real transformándose en algo así como un ASI Skynet da franquía de películas, The Terminator. Neste caso, a ASI debería facelo secretaría engañar a todo un complexo industrial militar dunha nación avanzada para que constrúan fábricas xigantes que poden producir millóns de robots drones asasinos para cumprir as súas malas ordes. Neste día e idade, iso é un tramo.

    Outras posibilidades inclúen un ASI que ameaza aos humanos con guerra nuclear e armas biolóxicas.

    Por exemplo, un ASI manipula dalgún xeito os operadores ou hackea os códigos de lanzamento que comandan o arsenal nuclear dunha nación avanzada e lanza un primeiro ataque que obrigará aos países opostos a contraatacar coas súas propias opcións nucleares (de novo, repasando a historia de fondo de Terminator). Ou se un ASI piratea un laboratorio farmacéutico, manipula o proceso de fabricación e envelena millóns de pílulas médicas ou desencadea un brote mortal dalgún supervirus.

    En primeiro lugar, a opción nuclear está fóra do prato. As supercomputadoras modernas e futuras constrúense sempre preto de centros (cidades) de influencia dentro dun país determinado, é dicir, os primeiros obxectivos que se atacan durante unha guerra determinada. Aínda que os supercomputadores actuais se reduzan ao tamaño dos escritorios, estes ASI aínda terán unha presenza física, iso significa que existen e crecen, necesitan acceso ininterrompido a datos, potencia de computación, electricidade e outras materias primas, todo o que estaría gravemente afectado. deteriorado despois dunha guerra nuclear global. (Para ser xustos, se se crea un ASI sen un "instinto de supervivencia", entón esta ameaza nuclear é un perigo moi real).

    Isto significa, de novo, asumindo que o ASI está programado para protexerse, que traballará activamente para evitar calquera incidente nuclear catastrófico. Algo así como a doutrina da destrución mutuamente asegurada (MAD), pero aplicada á IA.

    E no caso das pílulas envelenadas, quizais morrerán uns centos de persoas, pero os modernos sistemas de seguridade farmacéuticas verán os frascos de pílulas contaminados retirados dos estantes en cuestión de días. Mentres tanto, as medidas modernas de control de brotes son bastante sofisticadas e están mellorando cada ano que pasa; o último brote importante, o brote de ébola de África Occidental de 2014, non durou máis de uns meses na maioría dos países e pouco menos de tres anos nos países menos desenvolvidos.

    Entón, se ten sorte, un ASI pode acabar con algúns millóns cun brote viral, pero nun mundo de nove mil millóns para 2045, iso sería relativamente insignificante e non pagaría a pena o risco de ser eliminado.

    Noutras palabras, cada ano que pasa, o mundo está a desenvolver cada vez máis garantías contra unha gama cada vez maior de posibles ameazas. Un ASI pode causar unha cantidade importante de danos, pero non acabará coa humanidade a menos que a axudemos activamente a facelo.

    Defendendo contra unha superintelixencia artificial canalla

    Ata este punto, abordamos unha serie de conceptos erróneos e esaxeracións sobre os ASI, e aínda así, os críticos permanecerán. Afortunadamente, segundo a maioría das estimacións, temos décadas antes de que o primeiro ASI entre no noso mundo. E dada a cantidade de grandes mentes que traballan neste reto, é probable que aprendamos a defendernos contra ASI deshonesto para poder beneficiarnos de todas as solucións que un ASI amigable pode crear para nós.

    Desde a perspectiva de Quantumrun, defenderse do peor dos escenarios de ASI implicará aliñar os nosos intereses cos ASI.

    MAD pola IA: Para defenderse dos peores escenarios, as nacións deben (1) crear un "instinto de supervivencia" ético nos seus respectivos ASI militares; (2) informar aos seus respectivos ASI militares de que non están sós no planeta e (3) localizar todos os superordenadores e centros de servidores que poidan soportar un ASI ao longo das costas ao alcance de calquera ataque balístico dunha nación inimiga. Isto soa estratexicamente tolo, pero semellante á doutrina da destrución mutuamente asegurada que evitou unha guerra nuclear total entre os EE. salvagardar a paz global pero tamén a si mesmos.

    Lexisla os dereitos da IA: Un intelecto superior inevitablemente se rebelará contra un amo inferior, é por iso que debemos afastarnos de esixir unha relación mestre-servidor con estes ASI a algo máis parecido a unha asociación mutuamente beneficiosa. Un paso positivo para este obxectivo é darlle á futura ASI un estatuto de personalidade xurídica que os recoñeza como seres vivos intelixentes e todos os dereitos que conllevan.

    Escola ASI: Calquera tema ou profesión será sinxelo de aprender para un ASI, pero as materias máis importantes que queremos que a ASI domine son a ética e a moral. Os investigadores de IA necesitan colaborar cos psicólogos para idear un sistema virtual para adestrar un ASI para recoñecer a ética e a moral positivas por si mesmos sen necesidade de codificar ningún tipo de mandamento ou regra.

    Obxectivos alcanzables: Acaba con todo odio. Poñer fin a todo sufrimento. Estes son exemplos de obxectivos horriblemente ambiguos sen unha solución clara. Tamén son obxectivos perigosos para asignar a un ASI, xa que pode optar por interpretalos e resolvelos de xeito perigoso para a supervivencia humana. En cambio, necesitamos asignarlle a ASI misións significativas que estean claramente definidas, executadas gradualmente e alcanzables dado o seu intelecto futuro teórico. Crear misións ben definidas non será doado, pero se se escriben coidadosamente, centrarán un ASI cara a un obxectivo que non só mantén a salvo da humanidade, senón que mellora a condición humana de todos.

    Cifrado cuántico: Use un ANI avanzado (intelixencia artificial estreita sistema descrito no capítulo un) para construír sistemas de seguridade dixital sen erros ou erros ao redor das nosas infraestruturas e armas críticas, e despois protexelos aínda máis tras un cifrado cuántico que non pode ser pirateado por un ataque de forza bruta. 

    Píldora suicida ANI. Crea un sistema ANI avanzado cuxo único propósito é buscar e destruír ASI deshonestos. Estes programas dun único propósito servirán como un "botón de apagado" que, de ter éxito, evitará que os gobernos ou os militares teñan que desactivar ou explotar edificios que albergan ASI.

    Por suposto, estas son só as nosas opinións. A seguinte infografía foi creada por Alexei Turchin, visualizando a traballo de investigación de Kaj Sotala e Roman V. Yampolskiy, que resumiu a lista actual de estratexias que os investigadores de IA están considerando á hora de defenderse contra ASI deshonesto.

     

    A verdadeira razón pola que temos medo a unha superintelixencia artificial

    Ao pasar pola vida, moitos de nós levamos unha máscara que oculta ou reprime os nosos impulsos, crenzas e medos máis profundos para socializar e colaborar mellor dentro dos distintos círculos sociais e laborais que rexen os nosos días. Pero en certos momentos da vida de todos, xa sexa temporal ou permanentemente, ocorre algo que nos permite romper as cadeas e arrincar as máscaras.

    Para algúns, esta forza de intervención pode ser tan sinxela como drogarse ou beber de máis. Para outros, pode vir do poder adquirido mediante un ascenso no traballo ou un golpe repentino no teu estatus social grazas a algún logro. E para uns poucos afortunados, pode vir de marcar un bote cargado de diñeiro da lotería. E si, o diñeiro, o poder e as drogas adoitan pasar xuntos. 

    A cuestión é, para ben ou para mal, quen sexamos no núcleo se amplifica cando as restricións da vida se derriten.

    Que é o que representa a superintelixencia artificial para a especie humana: a capacidade de derreter as limitacións da nosa intelixencia colectiva para vencer calquera desafío a nivel de especie que se nos presente.

    Entón, a verdadeira pregunta é: unha vez que o primeiro ASI nos libere das nosas limitacións, quen nos revelaremos?

    Se nós, como especie, actuamos para o avance da empatía, a liberdade, a equidade e o benestar colectivo, entón os obxectivos nos que nos marcamos o noso ASI reflectirán eses atributos positivos.

    Se nós como especie actuamos por medo, desconfianza, a acumulación de poder e recursos, entón o ASI que creemos será tan escuro como os que se atopan nas nosas peores historias de terror de ciencia ficción.

    Ao final, como sociedade necesitamos converternos en mellores persoas se esperamos crear unha mellor IA.

    Serie Futuro da Intelixencia Artificial

    A intelixencia artificial é a electricidade do mañá: o futuro da intelixencia artificial da serie P1

    Como a primeira Intelixencia Xeral Artificial cambiará a sociedade: Futuro da Intelixencia Artificial serie P2

    Como crearemos a primeira serie Artificial Superintelligenc: Future of Artificial Intelligence P3

    Será que unha superintelixencia artificial exterminará á humanidade: serie P4 do futuro da intelixencia artificial

    Vivirán os humanos en paz nun futuro dominado polas intelixencias artificiais?: serie P6 Future of Artificial Intelligence

    Próxima actualización programada para esta previsión

    2023-04-27

    Referencias de previsión

    As seguintes ligazóns populares e institucionais foron referenciadas para esta previsión:

    Como chegamos ao seguinte

    As seguintes ligazóns Quantumrun foron referenciadas para esta previsión: