Cómo crearemos la primera Superinteligencia Artificial: Futuro de la inteligencia artificial P3

CREDITO DE IMAGEN: carrera cuántica

Cómo crearemos la primera Superinteligencia Artificial: Futuro de la inteligencia artificial P3

    En lo profundo de la Segunda Guerra Mundial, las fuerzas nazis arrasaban gran parte de Europa. Tenían armas avanzadas, una industria de guerra eficiente, una infantería impulsada fanáticamente, pero, sobre todo, tenían una máquina llamada Enigma. Este dispositivo permitió a las fuerzas nazis colaborar de forma segura a largas distancias mediante el envío de mensajes en código Morse entre sí a través de líneas de comunicación estándar; era una máquina de cifrado inexpugnable para los descifradores de códigos humanos. 

    Afortunadamente, los aliados encontraron una solución. Ya no necesitaban una mente humana para romper Enigma. En cambio, a través de un invento del difunto Alan Turing, los aliados construyeron una nueva herramienta revolucionaria llamada bomba británica, un dispositivo electromecánico que finalmente descifró el código secreto de los nazis y finalmente los ayudó a ganar la guerra.

    Este Bombe sentó las bases de lo que se convirtió en la computadora moderna.

    IJ Good, un matemático y criptólogo británico, trabajó junto a Turing durante el proyecto de desarrollo de Bombe. Vio desde el principio el juego final que este nuevo dispositivo podría traer algún día. en un papel 1965, el escribio:

    “Que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces indudablemente habría una "explosión de inteligencia" y la inteligencia del hombre quedaría muy atrás... Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo hacerlo. para mantenerlo bajo control”.

    Creando la primera superinteligencia artificial

    Hasta ahora, en nuestra serie El futuro de la inteligencia artificial, hemos definido las tres amplias categorías de inteligencia artificial (IA), desde inteligencia artificial estrecha (ANI) a inteligencia general artificial (AGI), pero en este capítulo de la serie, nos centraremos en la última categoría, la que genera entusiasmo o ataques de pánico entre los investigadores de IA: la superinteligencia artificial (ASI).

    Para entender qué es un ASI, deberá recordar el último capítulo donde describimos cómo los investigadores de IA creen que crearán el primer AGI. Básicamente, se necesitará una combinación de grandes datos que alimenten mejores algoritmos (unos que se especialicen en la superación personal y las habilidades de aprendizaje similares a las humanas) alojados en un hardware informático cada vez más potente.

    En ese capítulo, también describimos cómo una mente AGI (una vez que adquiere estas habilidades de superación personal y aprendizaje que los humanos damos por sentadas) eventualmente superará a la mente humana por medio de una velocidad de pensamiento superior, memoria mejorada, rendimiento incansable y actualizabilidad instantánea.

    Pero aquí es importante tener en cuenta que un AGI solo se mejorará a sí mismo hasta los límites del hardware y los datos a los que tiene acceso; este límite puede ser grande o pequeño según el cuerpo del robot que le demos o la escala de los ordenadores a los que le permitamos acceder.

    Mientras tanto, la diferencia entre un AGI y un ASI es que este último, en teoría, nunca existirá en forma física. Operará completamente dentro de una supercomputadora o red de supercomputadoras. Dependiendo de los objetivos de sus creadores, también puede obtener acceso completo a todos los datos almacenados en Internet, así como a cualquier dispositivo o persona que ingrese datos a través de Internet. Esto significa que no habrá un límite práctico para cuánto puede aprender este ASI y cuánto puede mejorar por sí mismo. 

    Y ese es el problema. 

    Entendiendo la explosión de inteligencia

    Este proceso de superación personal que las IA eventualmente obtendrán a medida que se conviertan en AGI (un proceso que la comunidad de IA llama automejora recursiva) puede desencadenar potencialmente un ciclo de retroalimentación positiva que se parece a esto:

    Se crea un nuevo AGI, se le da acceso a un cuerpo de robot o a un gran conjunto de datos, y luego se le asigna la simple tarea de educarse a sí mismo, de mejorar su inteligencia. Al principio, este AGI tendrá el coeficiente intelectual de un bebé que lucha por comprender nuevos conceptos. Con el tiempo, aprende lo suficiente como para alcanzar el coeficiente intelectual de un adulto promedio, pero no se detiene aquí. Usando este coeficiente intelectual adulto recién descubierto, se vuelve mucho más fácil y rápido continuar con esta mejora hasta un punto en el que su coeficiente intelectual coincida con el de los humanos más inteligentes conocidos. Pero, de nuevo, no se detiene ahí.

    Este proceso se agrava en cada nuevo nivel de inteligencia, siguiendo la ley de rendimientos acelerados hasta que alcanza el nivel incalculable de superinteligencia; en otras palabras, si no se controla y se le otorgan recursos ilimitados, un AGI mejorará a sí mismo hasta convertirse en un ASI, un intelecto que nunca ha existido antes en la naturaleza.

    Esto es lo que IJ Good identificó por primera vez cuando describió esta 'explosión de inteligencia' o lo que los teóricos modernos de la IA, como Nick Bostrom, llaman el evento de 'despegue' de la IA.

    Entendiendo una superinteligencia artificial

    En este punto, algunos de ustedes probablemente estén pensando que la diferencia clave entre la inteligencia humana y la inteligencia de un ASI es qué tan rápido puede pensar cada lado. Y si bien es cierto que este futuro ASI teórico pensará más rápido que los humanos, esta capacidad ya es bastante común en el sector informático actual: nuestro teléfono inteligente piensa (computa) más rápido que una mente humana, un supercomputadora piensa millones de veces más rápido que un teléfono inteligente, y una futura computadora cuántica pensará aún más rápido. 

    No, la velocidad no es la característica de la inteligencia que estamos explicando aquí. es la calidad 

    Puedes acelerar los cerebros de tu Samoyedo o Corgi todo lo que quieras, pero eso no se traduce en una nueva comprensión de cómo interpretar el lenguaje o las ideas abstractas. Incluso con una o dos décadas más, estos doggos no comprenderán de repente cómo hacer o usar herramientas, y mucho menos entender las diferencias más finas entre un sistema económico capitalista y socialista.

    Cuando se trata de inteligencia, los humanos operan en un plano diferente al de los animales. Del mismo modo, si un ASI alcanza todo su potencial teórico, sus mentes operarán en un nivel mucho más allá del alcance del humano moderno promedio. Para un poco de contexto, veamos las aplicaciones de estos ASI.

    ¿Cómo podría una superinteligencia artificial trabajar junto a la humanidad?

    Suponiendo que cierto gobierno o corporación tenga éxito en la creación de un ASI, ¿cómo podrían usarlo? Según Bostrom, hay tres formas separadas pero relacionadas que estos ASI podrían tomar:

    • Oráculo Aquí interactuaríamos con un ASI igual que ya lo hacemos con el buscador de Google; le haremos una pregunta, pero no importa cuán compleja sea dicha pregunta, el ASI la responderá perfectamente y de una manera que se adapte a usted y al contexto de su pregunta.
    • Genio. En este caso, le asignaremos a un ASI una tarea específica y se ejecutará según lo ordenado. Investigar una cura para el cáncer. Hecho. Encuentre todos los planetas ocultos dentro de la acumulación de imágenes de 10 años del telescopio espacial Hubble de la NASA. Hecho. Diseña un reactor de fusión que funcione para resolver la demanda de energía de la humanidad. Abracadabra.
    • Soberano. Aquí, al ASI se le asigna una misión abierta y se le da la libertad de ejecutarla. Roba los secretos de I+D de nuestro competidor corporativo. "Fácil." Descubre las identidades de todos los espías extranjeros que se esconden dentro de nuestras fronteras. "En eso." Asegurar la continua prosperidad económica de los Estados Unidos. "No hay problema."

    Ahora, sé lo que estás pensando, todo esto suena bastante descabellado. Por eso es importante recordar que todos los problemas/desafíos que existen, incluso los que han dejado perplejas a las mentes más brillantes del mundo hasta la fecha, tienen solución. Pero la dificultad de un problema se mide por el intelecto que lo aborda.

    En otras palabras, cuanto mayor sea la mente aplicada a un desafío, más fácil se vuelve encontrar una solución a dicho desafío. Cualquier reto. Es como un adulto que mira a un bebé esforzándose por comprender por qué no puede colocar un bloque cuadrado en una abertura redonda: para el adulto, mostrarle al bebé que el bloque debe pasar por la abertura cuadrada sería un juego de niños.

    Del mismo modo, si este futuro ASI alcanzara su máximo potencial, esta mente se convertiría en el intelecto más poderoso del universo conocido, lo suficientemente poderoso como para resolver cualquier desafío, sin importar cuán complejo sea. 

    Esta es la razón por la que muchos investigadores de IA llaman al ASI el último invento que el hombre tendrá que hacer. Si se convence de trabajar junto a la humanidad, puede ayudarnos a resolver todos los problemas más apremiantes del mundo. Incluso podemos pedirle que elimine todas las enfermedades y acabe con el envejecimiento tal como lo conocemos. La humanidad puede por primera vez engañar a la muerte de forma permanente y entrar en una nueva era de prosperidad.

    Pero lo contrario también es posible. 

    La inteligencia es poder. Si es mal administrado o instruido por malos actores, este ASI podría convertirse en la última herramienta de opresión, o podría exterminar a la humanidad por completo, piense en Skynet de Terminator o el Arquitecto de las películas de Matrix.

    En verdad, ninguno de los dos extremos es probable. El futuro siempre es mucho más complicado de lo que predicen los utópicos y los distópicos. Es por eso que ahora que entendemos el concepto de un ASI, el resto de esta serie explorará cómo un ASI afectará a la sociedad, cómo la sociedad se defenderá contra un ASI deshonesto y cómo sería el futuro si los humanos y la IA convivieran. -lado. sigue leyendo

    Futuro de la serie de Inteligencia Artificial

    La inteligencia artificial es la electricidad del mañana: el futuro de la serie de inteligencia artificial P1

    Cómo cambiará la sociedad la primera Inteligencia General Artificial: Futuro de la serie de Inteligencia Artificial P2

    ¿Una Superinteligencia Artificial exterminará a la humanidad?: Futuro de la Inteligencia Artificial serie P4

    Cómo los humanos se defenderán contra una superinteligencia artificial: el futuro de la serie de inteligencia artificial P5

    ¿Vivirán los humanos en paz en un futuro dominado por las inteligencias artificiales?: Serie Future of Artificial Intelligence P6

    Próxima actualización programada para este pronóstico

    2023-04-27

    Referencias de previsión

    Los siguientes enlaces populares e institucionales fueron referenciados para este pronóstico:

    Inteligencia.org
    Inteligencia.org
    Inteligencia.org

    Se hizo referencia a los siguientes enlaces de Quantumrun para este pronóstico: