Cómo los humanos se defenderán contra una Superinteligencia Artificial: Futuro de la inteligencia artificial P5

CREDITO DE IMAGEN: carrera cuántica

Cómo los humanos se defenderán contra una Superinteligencia Artificial: Futuro de la inteligencia artificial P5

    El año es 65,000 AEC, y como Thylacoleo, tú y los de tu especie fuisteis los grandes cazadores de la antigua Australia. Recorriste la tierra libremente y viviste en equilibrio con los depredadores y presas que ocupaban la tierra junto a ti. Las estaciones trajeron cambios, pero tu estatus en el reino animal permaneció indiscutible desde que tú y tus ancestros pudieron recordar. Entonces, un día, aparecieron los recién llegados.

    Se rumorea que llegaron desde la gigantesca pared de agua, pero estas criaturas parecían más cómodas viviendo en tierra. Tenías que ver estas criaturas por ti mismo.

    Tardó unos días, pero finalmente llegó a la costa. El fuego en el cielo se estaba poniendo, un momento perfecto para espiar a estas criaturas, tal vez incluso intentar comer uno para ver cómo sabían.

    Encuentras uno.

    Caminaba sobre dos patas y no tenía pelo. Parecía débil. Impresionante. Apenas valía la pena el miedo que estaba causando entre el reino.

    Comienzas a acercarte con cuidado mientras la noche ahuyenta la luz. Te estás acercando. Entonces te congelas. Se escuchan fuertes ruidos y luego aparecen cuatro más del bosque detrás de él. ¿Cuántos hay?

    La criatura sigue a los demás hasta la línea de árboles y tú la sigues. Y cuanto más haces, más sonidos extraños escuchas hasta que detectas aún más de estas criaturas. Los sigues a distancia mientras salen del bosque hacia un claro junto a la orilla. Hay muchos de ellos. Pero lo que es más importante, todos están sentados tranquilamente alrededor de un fuego.

    Has visto estos incendios antes. En la temporada de calor, el fuego en el cielo a veces visitaba la tierra y quemaba bosques enteros. Estas criaturas, por otro lado, de alguna manera lo estaban controlando. ¿Qué tipo de criaturas pueden poseer tal poder?

    Miras a lo lejos. Vienen más por encima de la gigantesca pared de agua.

    Da un paso atrás.

    Estas criaturas no son como las demás del reino. Son algo completamente nuevo.

    Decides irte y advertir a tus parientes. Si su número crece demasiado, quién sabe lo que podría pasar.

    ***

    Se cree que el Thylacoleo se extinguió relativamente poco tiempo después de la llegada de los humanos, junto con la mayoría de la otra megafauna del continente australiano. Ningún otro depredador mamífero del ápice ocupó su lugar, a menos que cuente a los humanos en esa categoría.

    Reproducir esta alegoría es el enfoque de este capítulo de la serie: ¿una futura superinteligencia artificial (ASI) nos convertirá a todos en baterías y luego nos conectará a Matrix o los humanos encontrarán una manera de evitar convertirse en víctimas de una ciencia ficción? ¿Trama del fin del mundo de la IA?

    Hasta ahora en nuestra serie sobre el Futuro de la inteligencia artificial, hemos explorado todo tipo de IA, incluido el potencial positivo de una forma particular de IA, el ASI: un ser artificial cuya inteligencia futura nos hará parecer hormigas en comparación.

    Pero quién puede decir que un ser tan inteligente aceptaría recibir órdenes de humanos para siempre. ¿Qué haremos si las cosas van mal? ¿Cómo nos defenderemos contra un ASI deshonesto?

    En este capítulo, dejaremos de lado la exageración falsa, al menos en lo que se refiere a los peligros del 'nivel de extinción humana', y nos centraremos en las opciones realistas de autodefensa disponibles para los gobiernos del mundo.

    ¿Podemos detener toda investigación adicional sobre una superinteligencia artificial?

    Dados los riesgos potenciales que una ASI podría representar para la humanidad, la primera pregunta obvia que se debe hacer es: ¿No podemos simplemente detener toda investigación adicional sobre IA? ¿O al menos prohibir cualquier investigación que pueda acercarnos peligrosamente a la creación de un ASI?

    Respuesta corta: No.

    Respuesta larga: echemos un vistazo a los diferentes actores involucrados aquí.

    A nivel de investigación, hoy en día hay demasiados investigadores de IA de demasiadas nuevas empresas, empresas y universidades de todo el mundo. Si una empresa o país decidiera limitar sus esfuerzos de investigación de IA, simplemente continuaría en otro lugar.

    Mientras tanto, las empresas más valiosas del planeta están haciendo sus fortunas con la aplicación de sistemas de inteligencia artificial a sus negocios específicos. Pedirles que detengan o limiten su desarrollo de herramientas de IA es como pedirles que detengan o limiten su crecimiento futuro. Financieramente, esto amenazaría su negocio a largo plazo. Legalmente, las corporaciones tienen la responsabilidad fiduciaria de generar valor continuamente para sus accionistas; eso significa que cualquier acción que limitaría el crecimiento de ese valor podría dar lugar a una demanda. Y si algún político intentara limitar la investigación de la IA, estas corporaciones gigantes simplemente pagarían las tarifas de cabildeo necesarias para cambiar de opinión o las de sus colegas.

    Para el combate, al igual que los terroristas y los luchadores por la libertad de todo el mundo han usado tácticas de guerrilla para luchar contra ejércitos mejor financiados, las naciones más pequeñas tendrán un incentivo para usar la IA como una ventaja táctica similar contra naciones más grandes que pueden tener una serie de ventajas militares. Del mismo modo, para los militares de alto nivel, como los que pertenecen a los EE. UU., Rusia y China, construir un ASI militar es equivalente a tener un arsenal de armas nucleares en el bolsillo trasero. En otras palabras, todos los ejércitos seguirán financiando la IA solo para seguir siendo relevantes en el futuro.

    ¿Qué hay de los gobiernos? A decir verdad, la mayoría de los políticos en estos días (2018) son analfabetos tecnológicos y tienen poca comprensión de lo que es la IA o su potencial futuro, lo que los hace fáciles de manipular por los intereses corporativos.

    Y a nivel global, considere lo difícil que fue convencer a los gobiernos del mundo para firmar el 2015 Acuerdo de París para hacer frente al cambio climático, y una vez firmadas, muchas de las obligaciones ni siquiera eran vinculantes. No solo eso, el cambio climático es un problema que las personas están experimentando físicamente a nivel mundial a través de eventos climáticos cada vez más frecuentes y severos. Ahora, cuando se habla de aceptar límites en la IA, este es un tema que es en gran medida invisible y apenas comprensible para el público, así que buena suerte para conseguir la aceptación de cualquier tipo de 'Acuerdo de París' para limitar la IA.

    En otras palabras, hay demasiados intereses investigando la IA para sus propios fines como para detener cualquier investigación que eventualmente pueda conducir a una ASI. 

    ¿Podemos enjaular una superinteligencia artificial?

    La siguiente pregunta razonable es ¿podemos enjaular o controlar un ASI una vez que inevitablemente creamos uno? 

    Respuesta corta: De nuevo, no.

    Respuesta larga: la tecnología no se puede contener.

    Por un lado, solo considere los miles o millones de desarrolladores web e informáticos en el mundo que constantemente producen software nuevo o versiones nuevas de software existente. ¿Podemos decir honestamente que cada uno de sus lanzamientos de software está 100 por ciento libre de errores? Estos errores son los que usan los piratas informáticos profesionales para robar la información de la tarjeta de crédito de millones o los secretos clasificados de las naciones, y estos son piratas informáticos humanos. Para un ASI, suponiendo que tuviera un incentivo para escapar de su jaula digital, el proceso de encontrar errores y romper el software sería pan comido.

    Pero incluso si un equipo de investigación de IA descubrió una forma de empaquetar un ASI, eso no significa que los próximos 1,000 equipos también lo descubrirán o serán incentivados para usarlo.

    Se necesitarán miles de millones de dólares y tal vez incluso décadas para crear un ASI. Las corporaciones o gobiernos que invierten esta cantidad de dinero y tiempo esperarán un retorno significativo de su inversión. Y para que un ASI brinde ese tipo de retorno, ya sea para jugar con el mercado de valores o inventar un nuevo producto de mil millones de dólares o planificar una estrategia ganadora para luchar contra un ejército más grande, necesitará acceso gratuito a un conjunto de datos gigante o incluso a Internet. mismo para producir esos rendimientos.

    Y una vez que un ASI obtiene acceso a las redes del mundo, no hay garantías de que podamos volver a meterlo en su jaula.

    ¿Puede una superinteligencia artificial aprender a ser buena?

    En este momento, los investigadores de IA no están preocupados de que un ASI se vuelva malvado. Todo el mal, el tropo de ciencia ficción de IA es solo humanos antropomorfizándose nuevamente. Un futuro ASI no será ni bueno ni malo, conceptos humanos, simplemente amoral.

    Entonces, la suposición natural es que dada esta pizarra ética en blanco, los investigadores de IA pueden programar los primeros códigos éticos de ASI que están en línea con los nuestros para que no terminen desatando Terminators sobre nosotros o convirtiéndonos a todos en baterías de Matrix.

    Pero esta suposición se basa en una suposición secundaria de que los investigadores de IA también son expertos en ética, filosofía y psicología.

    En verdad, la mayoría no lo son.

    Según el psicólogo cognitivo y autor Steven Pinker, esta realidad significa que la tarea de codificar la ética puede salir mal de diferentes maneras.

    Por ejemplo, incluso los investigadores de IA con las mejores intenciones pueden inadvertidamente codificar estos códigos éticos mal pensados ​​de ASI que, en ciertos escenarios, pueden hacer que ASI actúe como un sociópata.

    Del mismo modo, existe la misma probabilidad de que un investigador de IA programe códigos éticos que incluyan los sesgos innatos del investigador. Por ejemplo, ¿cómo se comportaría un ASI si se construyera con una ética derivada de una perspectiva conservadora versus liberal, o de una tradición budista versus cristiana o islámica?

    Creo que ves el problema aquí: no existe un conjunto universal de moral humana. Si queremos que nuestra ASI actúe con un código ético, ¿de dónde vendrá? ¿Qué reglas incluimos y excluimos? ¿Quien decide?

    O digamos que estos investigadores de IA crean un ASI que está perfectamente en línea con las normas y leyes culturales modernas de hoy. Luego empleamos este ASI para ayudar a las burocracias federales, estatales/provinciales y municipales a funcionar de manera más eficiente y hacer cumplir mejor estas normas y leyes (por cierto, un caso de uso probable para un ASI). Bueno, ¿qué sucede cuando nuestra cultura cambia?

    Imagine que la Iglesia Católica creó un ASI en el apogeo de su poder durante la Europa medieval (1300-1400) con el objetivo de ayudar a la iglesia a administrar a la población y garantizar el estricto cumplimiento del dogma religioso de la época. Siglos después, ¿gozarían las mujeres de los mismos derechos que hoy? ¿Se protegería a las minorías? ¿Se promovería la libertad de expresión? ¿Se haría cumplir la separación de iglesia y estado? ¿Ciencia moderna?

    En otras palabras, ¿queremos aprisionar el futuro a la moral y las costumbres de hoy?

    Un enfoque alternativo es el compartido por Colin Allen, coautor del libro, Máquinas morales: enseñando a los robots lo correcto y lo incorrecto. En lugar de tratar de codificar reglas éticas rígidas, hacemos que el ASI aprenda ética y moralidad comunes de la misma manera que lo hacen los humanos, a través de la experiencia y las interacciones con otros.

    El problema aquí, sin embargo, es que si los investigadores de IA descubren no solo cómo enseñarle a un ASI nuestras normas culturales y éticas actuales, sino también cómo adaptarse a las nuevas normas culturales a medida que surgen (algo llamado 'normatividad indirecta'), entonces cómo este ASI decide evolucionar su comprensión de las normas culturales y éticas se vuelve impredecible.

    Y ese es el desafío.

    Por un lado, los investigadores de IA pueden intentar codificar normas o reglas éticas estrictas en el ASI para tratar de controlar su comportamiento, pero corren el riesgo de que se introduzcan consecuencias imprevistas debido a una codificación descuidada, sesgos no intencionales y normas sociales que algún día pueden quedar obsoletas. Por otro lado, podemos intentar capacitar al ASI para que aprenda a comprender la ética y la moral humanas de una manera que sea igual o superior a nuestra propia comprensión y luego esperar que pueda desarrollar con precisión su comprensión de la ética y la moral a medida que avanza la sociedad humana. adelante en las próximas décadas y siglos.

    De cualquier manera, cualquier intento de alinear los objetivos de ASI con los nuestros presenta un gran riesgo.

    ¿Qué pasa si los malos actores crean deliberadamente una superinteligencia artificial malvada?

    Dada la línea de pensamiento esbozada hasta ahora, es una pregunta justa preguntarse si es posible que un grupo terrorista o una nación canalla creen un ASI 'malvado' para sus propios fines.

    Esto es muy posible, especialmente después de que la investigación relacionada con la creación de un ASI esté disponible en línea de alguna manera.

    Pero como se indicó anteriormente, los costos y la experiencia involucrados en la creación del primer ASI serán enormes, lo que significa que el primer ASI probablemente será creado por una organización controlada o fuertemente influenciada por una nación desarrollada, probablemente EE. UU., China y Japón ( Corea y uno de los principales países de la UE son posibilidades remotas).

    Todos estos países, si bien son competidores, tienen un fuerte incentivo económico para mantener el orden mundial: los ASI que crean reflejarán ese deseo, incluso mientras promueven los intereses de las naciones con las que se alinean.

    Además de eso, la inteligencia y el poder teóricos de un ASI es igual al poder de cómputo al que accede, lo que significa que los ASI de las naciones desarrolladas (que pueden pagar un montón de miles de millones de dólares). superordenadores) tendrá una enorme ventaja sobre los ASI de naciones más pequeñas o grupos criminales independientes. Además, los ASI se vuelven más inteligentes, más rápidamente con el tiempo.

    Entonces, dada esta ventaja inicial, combinada con un mayor acceso a la potencia informática bruta, si una organización/nación en la sombra crea un ASI peligroso, los ASI de las naciones desarrolladas lo matarán o lo enjaularán.

    (Esta línea de pensamiento también es la razón por la que algunos investigadores de IA creen que solo habrá un ASI en el planeta, ya que el primer ASI tendrá una ventaja tal sobre todos los ASI posteriores que podría ver a los ASI futuros como amenazas a ser eliminados. Esta es otra razón más por la cual las naciones están financiando la investigación continua en IA, en caso de que se convierta en una competencia de 'primer lugar o nada').

    La inteligencia ASI no acelerará ni explotará como pensamos

    No podemos evitar que se cree un ASI. No podemos controlarlo por completo. No podemos estar seguros de que siempre actuará de acuerdo con nuestras costumbres compartidas. ¡Caramba, estamos empezando a sonar como padres helicóptero por aquí!

    Pero lo que separa a la humanidad de su típico padre sobreprotector es que estamos dando a luz a un ser cuya inteligencia crecerá mucho más allá de la nuestra. (Y no, no es lo mismo que cuando tus padres te piden que arregles su computadora cada vez que vienes a casa de visita). 

    En capítulos anteriores de esta serie sobre el futuro de la inteligencia artificial, exploramos por qué los investigadores de IA piensan que la inteligencia de un ASI crecerá sin control. Pero aquí, vamos a reventar esa burbuja... más o menos. 

    Verá, la inteligencia no se crea a sí misma de la nada, se desarrolla a través de la experiencia moldeada por estímulos externos.  

    En otras palabras, podemos programar una IA con el posible volverse superinteligente, pero a menos que le carguemos una tonelada de datos o le demos acceso ilimitado a Internet o simplemente le demos un cuerpo de robot, no aprenderá nada para alcanzar ese potencial. 

    E incluso si obtiene acceso a uno o más de esos estímulos, el conocimiento o la inteligencia involucran más que solo recopilar datos, involucra el método científico: hacer una observación, formular una pregunta, una hipótesis, realizar experimentos, sacar una conclusión, enjuagar. y repetir para siempre. Especialmente si estos experimentos involucran cosas físicas o la observación de seres humanos, los resultados de cada experimento podrían tardar semanas, meses o años en recopilarse. Esto ni siquiera tiene en cuenta el dinero y los recursos brutos necesarios para llevar a cabo estos experimentos, especialmente si implican la construcción de un nuevo telescopio o una fábrica. 

    En otras palabras, sí, un ASI aprenderá rápidamente, pero la inteligencia no es mágica. No puede simplemente conectar un ASI a una supercomputadora y esperar que lo sepa todo. Habrá restricciones físicas para la adquisición de datos de ASI, lo que significa que habrá restricciones físicas para la velocidad a la que se vuelve más inteligente. Estas restricciones le darán a la humanidad el tiempo que necesita para colocar los controles necesarios en este ASI si comienza a actuar fuera de línea con los objetivos humanos.

    Una superinteligencia artificial solo es peligrosa si sale al mundo real

    Otro punto que se pierde en todo este debate sobre el peligro de ASI es que estos ASI tampoco existirán. Tendrán una forma física. Y cualquier cosa que tenga una forma física puede ser controlada.

    En primer lugar, para que un ASI alcance su potencial de inteligencia, no puede alojarse dentro de un solo cuerpo de robot, ya que este cuerpo limitaría su potencial de crecimiento informático. (Esta es la razón por la cual los cuerpos de los robots serán más apropiados para los AGI o inteligencias artificiales generales explicadas en el capítulo dos de esta serie, como Data de Star Trek o R2D2 de Star Wars. Seres inteligentes y capaces, pero como los humanos, tendrán un límite en lo inteligentes que pueden llegar a ser).

    Esto significa que lo más probable es que estas futuras ASI existan dentro de una supercomputadora o una red de supercomputadoras que se encuentran en grandes complejos de edificios. Si un ASI se vuelve malvado, los humanos pueden apagar la energía de estos edificios, cortarlos de Internet o simplemente bombardear estos edificios por completo. Caro, pero factible.

    Pero entonces podría preguntarse, ¿estos ASI no pueden replicarse o respaldarse a sí mismos? Sí, pero el tamaño de archivo sin procesar de estos ASI probablemente sea tan grande que los únicos servidores que pueden manejarlos pertenezcan a grandes corporaciones o gobiernos, lo que significa que no será difícil cazarlos.

    ¿Puede una superinteligencia artificial desencadenar una guerra nuclear o una nueva plaga?

    En este punto, es posible que esté pensando en todos los programas y películas de ciencia ficción del día del juicio final que vio mientras crecía y pensar que estos ASI no se quedaron dentro de sus supercomputadoras, ¡causaron un daño real en el mundo real!

    Bueno, vamos a desglosarlos.

    Por ejemplo, ¿qué pasa si un ASI amenaza el mundo real al transformarse en algo así como un Skynet ASI de la franquicia de películas Terminator? En este caso, el ASI necesitaría secretamente engaña a todo un complejo industrial militar de una nación avanzada para que construya fábricas gigantes que pueden producir millones de robots drones asesinos para cumplir sus malas órdenes. En este día y edad, eso es una exageración.

    Otras posibilidades incluyen un ASI que amenaza a los humanos con una guerra nuclear y armas biológicas.

    Por ejemplo, un ASI de alguna manera manipula a los operadores o piratea los códigos de lanzamiento que comandan el arsenal nuclear de una nación avanzada y lanza un primer ataque que obligará a los países opuestos a contraatacar con sus propias opciones nucleares (nuevamente, repitiendo la historia de fondo de Terminator). O si un ASI piratea un laboratorio farmacéutico, altera el proceso de fabricación y envenena millones de píldoras médicas o desencadena un brote mortal de algún súper virus.

    En primer lugar, la opción nuclear está descartada. Las supercomputadoras modernas y futuras siempre se construyen cerca de los centros (ciudades) de influencia dentro de un país determinado, es decir, los primeros objetivos a ser atacados durante una guerra determinada. Incluso si las supercomputadoras de hoy en día se reducen al tamaño de las computadoras de escritorio, estas ASI seguirán teniendo una presencia física, lo que significa que para existir y crecer, necesitan acceso ininterrumpido a datos, poder de cómputo, electricidad y otras materias primas, todo lo cual sería gravemente dañados después de una guerra nuclear global. (Para ser justos, si se crea un ASI sin un "instinto de supervivencia", entonces esta amenaza nuclear es un peligro muy real).

    Esto significa, nuevamente, suponiendo que el ASI esté programado para protegerse a sí mismo, que trabajará activamente para evitar cualquier incidente nuclear catastrófico. Algo así como la doctrina de destrucción mutua asegurada (MAD), pero aplicada a la IA.

    Y en el caso de las píldoras envenenadas, tal vez mueran unos pocos cientos de personas, pero los sistemas modernos de seguridad farmacéutica harán que los frascos de píldoras contaminados sean retirados de los estantes en cuestión de días. Mientras tanto, las medidas modernas de control de brotes son bastante sofisticadas y mejoran cada año que pasa; el último brote importante, el brote de ébola de África Occidental de 2014, duró no más de unos pocos meses en la mayoría de los países y poco menos de tres años en los países menos desarrollados.

    Entonces, si tiene suerte, un ASI puede acabar con unos pocos millones con un brote viral, pero en un mundo de nueve mil millones para 2045, eso sería relativamente insignificante y no valdría la pena correr el riesgo de ser eliminado.

    En otras palabras, con cada año que pasa, el mundo está desarrollando cada vez más salvaguardas contra una gama cada vez mayor de posibles amenazas. Un ASI puede causar una cantidad significativa de daño, pero no acabará con la humanidad a menos que lo ayudemos activamente a hacerlo.

    Defenderse de una superinteligencia artificial rebelde

    En este punto, hemos abordado una variedad de conceptos erróneos y exageraciones sobre los ASI y, sin embargo, las críticas permanecerán. Afortunadamente, según la mayoría de las estimaciones, tenemos décadas antes de que el primer ASI ingrese a nuestro mundo. Y dada la cantidad de grandes mentes que trabajan actualmente en este desafío, es probable que aprendamos a defendernos contra ASI deshonesto para que podamos beneficiarnos de todas las soluciones que un ASI amigable puede crear para nosotros.

    Desde la perspectiva de Quantumrun, defenderse del peor escenario de ASI implicará alinear nuestros intereses con los de ASI.

    MAD para IA: Para defenderse de los peores escenarios, las naciones necesitan (1) crear un 'instinto de supervivencia' ético en sus respectivos ASI militares; (2) informar a sus respectivos ASI militares que no están solos en el planeta, y (3) ubicar todas las supercomputadoras y centros de servidores que puedan soportar un ASI a lo largo de las costas al alcance de cualquier ataque balístico de una nación enemiga. Esto suena estratégicamente loco, pero similar a la doctrina de Destrucción Mutuamente Asegurada que evitó una guerra nuclear total entre los EE. salvaguardar la paz mundial sino también a sí mismos.

    Legislar los derechos de la IA: Un intelecto superior inevitablemente se rebelará contra un amo inferior, es por eso que debemos alejarnos de exigir una relación de amo-sirviente con estos ASI a algo más parecido a una asociación mutuamente beneficiosa. Un paso positivo hacia este objetivo es otorgar a los futuros ASI un estatus de personalidad jurídica que los reconozca como seres vivos inteligentes y todos los derechos que conlleva.

    escuela ASI: Cualquier tema o profesión será fácil de aprender para un ASI, pero los temas más importantes que queremos que domine el ASI son la ética y la moralidad. Los investigadores de IA deben colaborar con psicólogos para diseñar un sistema virtual para entrenar a un ASI para que reconozca la ética y la moralidad positivas por sí mismo sin la necesidad de codificar ningún tipo de mandamiento o regla.

    Objetivos alcanzables: Acabar con todo el odio. Acaba con todo sufrimiento. Estos son ejemplos de objetivos terriblemente ambiguos sin una solución clara. También son objetivos peligrosos para asignar a un ASI, ya que podría optar por interpretarlos y resolverlos de formas que son peligrosas para la supervivencia humana. En cambio, necesitamos asignar misiones significativas a ASI que estén claramente definidas, ejecutadas gradualmente y alcanzables dado su intelecto teórico futuro. Crear misiones bien definidas no será fácil, pero si se escriben cuidadosamente, enfocarán un ASI hacia un objetivo que no solo mantiene a la humanidad segura, sino que mejora la condición humana para todos.

    Cifrado cuántico: Utilice un ANI avanzado (inteligencia artificial estrecha sistema descrito en el capítulo uno) para construir sistemas de seguridad digital libres de errores/errores alrededor de nuestra infraestructura crítica y armas, y luego protegerlos aún más detrás del cifrado cuántico que no puede ser pirateado por un ataque de fuerza bruta. 

    Píldora suicida ANI. Cree un sistema ANI avanzado cuyo único propósito sea buscar y destruir ASI rebelde. Estos programas de un solo propósito servirán como un "botón de apagado" que, si tiene éxito, evitará que los gobiernos o las fuerzas armadas tengan que desactivar o volar edificios que albergan ASI.

    Por supuesto, estas son solo nuestras opiniones. La siguiente infografía fue creada por Alexéi Turchin, visualizando un trabajo de investigación por Kaj Sotala y Roman V. Yampolskiy, que resumió la lista actual de estrategias que los investigadores de IA están considerando cuando se trata de defenderse contra ASI deshonesto.

     

    La verdadera razón por la que tenemos miedo de una superinteligencia artificial

    Al pasar por la vida, muchos de nosotros usamos una máscara que oculta o reprime nuestros impulsos, creencias y miedos más profundos para socializar mejor y colaborar dentro de los diversos círculos sociales y laborales que gobiernan nuestros días. Pero en ciertos momentos de la vida de todos, ya sea de manera temporal o permanente, sucede algo que nos permite romper nuestras cadenas y arrancarnos las máscaras.

    Para algunos, esta fuerza interviniente puede ser tan simple como drogarse o beber demasiado. Para otros, puede provenir del poder obtenido a través de una promoción en el trabajo o un aumento repentino en su estatus social gracias a algún logro. Y para unos pocos afortunados, puede provenir de ganar un bote lleno de dinero de la lotería. Y sí, el dinero, el poder y las drogas a menudo pueden darse juntos. 

    El punto es que, para bien o para mal, quienquiera que seamos en el fondo se amplifica cuando las restricciones de la vida desaparecen.

    Esa es lo que representa la superinteligencia artificial para la especie humana: la capacidad de disipar las limitaciones de nuestra inteligencia colectiva para conquistar cualquier desafío a nivel de especie que se nos presente.

    Entonces, la verdadera pregunta es: una vez que el primer ASI nos libere de nuestras limitaciones, ¿quiénes nos revelaremos?

    Si nosotros, como especie, actuamos hacia el avance de la empatía, la libertad, la justicia y el bienestar colectivo, entonces las metas hacia las que establezcamos nuestro ASI reflejarán esos atributos positivos.

    Si nosotros, como especie, actuamos por miedo, desconfianza, la acumulación de poder y recursos, entonces el ASI que creamos será tan oscuro como los que se encuentran en nuestras peores historias de terror de ciencia ficción.

    Al final del día, nosotros, como sociedad, debemos convertirnos en mejores personas si esperamos crear una mejor IA.

    Futuro de la serie de Inteligencia Artificial

    La inteligencia artificial es la electricidad del mañana: el futuro de la serie de inteligencia artificial P1

    Cómo cambiará la sociedad la primera Inteligencia General Artificial: Futuro de la serie de Inteligencia Artificial P2

    Cómo crearemos la primera superinteligencia artificial: el futuro de la serie de inteligencia artificial P3

    ¿Una superinteligencia artificial exterminará a la humanidad? El futuro de la serie de inteligencia artificial P4

    ¿Vivirán los humanos en paz en un futuro dominado por las inteligencias artificiales?: Serie Future of Artificial Intelligence P6

    Próxima actualización programada para este pronóstico

    2023-04-27

    Referencias de previsión

    Los siguientes enlaces populares e institucionales fueron referenciados para este pronóstico:

    Cómo llegamos a la siguiente

    Se hizo referencia a los siguientes enlaces de Quantumrun para este pronóstico: