Com crearem la primera Superintel·ligència artificial: futur de la intel·ligència artificial P3

CRÈDIT DE LA IMATGE: Quantumrun

Com crearem la primera Superintel·ligència artificial: futur de la intel·ligència artificial P3

    En plena Segona Guerra Mundial, les forces nazis estaven circulant per gran part d'Europa. Tenien armes avançades, indústria eficient en temps de guerra, infanteria impulsada fanàticament, però sobretot, tenien una màquina anomenada Enigma. Aquest dispositiu va permetre a les forces nazis col·laborar de manera segura a llargues distàncies enviant-se missatges en codi Morse entre si a través de línies de comunicació estàndard; era una màquina de xifratge inexpugnable per als trencadors de codis humans. 

    Per sort, els aliats van trobar una solució. Ja no necessitaven una ment humana per trencar Enigma. En canvi, a través d'una invenció del difunt Alan Turing, els aliats van construir una nova eina revolucionària anomenada Bomba britànica, un dispositiu electromecànic que finalment va desxifrar el codi secret dels nazis i, finalment, els va ajudar a guanyar la guerra.

    Aquest Bombe va establir les bases del que es va convertir en l'ordinador modern.

    IJ Good, un matemàtic i criptòleg britànic, va treballar al costat de Turing durant el projecte de desenvolupament de Bombe. Va veure que al final del joc aquest nou dispositiu podria produir algun dia. En a Paper 1965, Ell va escriure:

    "Que una màquina ultraintel·ligent es defineixi com una màquina que pot superar amb escreix totes les activitats intel·lectuals de qualsevol home per més intel·ligent. Com que el disseny de màquines és una d'aquestes activitats intel·lectuals, una màquina ultraintel·ligent podria dissenyar màquines encara millors; Llavors hi hauria, sens dubte, una "explosió d'intel·ligència", i la intel·ligència de l'home quedaria molt enrere... Així, la primera màquina ultraintel·ligent és l'últim invent que l'home ha de fer mai, sempre que la màquina sigui prou dòcil per dir-nos com per mantenir-ho sota control".

    Creant la primera superintel·ligència artificial

    Fins ara, a la nostra sèrie El futur de la intel·ligència artificial, hem definit les tres grans categories d'intel·ligència artificial (IA), des de intel·ligència artificial estreta (ANI) a intel·ligència general artificial (AGI), però en aquest capítol de la sèrie, ens centrarem en l'última categoria, la que genera excitació o atacs de pànic entre els investigadors d'IA: la superintel·ligència artificial (ASI).

    Per entendre què és un ASI, haureu de pensar en l'últim capítol on vam descriure com els investigadors d'IA creuen que crearan el primer AGI. Bàsicament, caldrà una combinació de grans dades que alimenten millors algorismes (els que s'especialitzen en la millora personal i les habilitats d'aprenentatge semblants a les persones) allotjats en un maquinari informàtic cada cop més potent.

    En aquest capítol, també vam descriure com una ment AGI (un cop aconsegueix aquestes habilitats d'auto-superació i aprenentatge que els humans donem per fetes) acabarà superant la ment humana mitjançant una velocitat de pensament superior, una memòria millorada, un rendiment incansable i actualització instantània.

    Però aquí és important tenir en compte que un AGI només es millorarà fins als límits del maquinari i les dades als quals té accés; aquest límit pot ser gran o petit segons el cos del robot que li donem o l'escala d'ordinadors als quals li permetem accedir.

    Mentrestant, la diferència entre un AGI i un ASI és que aquest últim, teòricament, mai existirà en forma física. Funcionarà completament dins d'un superordinador o xarxa de superordinadors. Depenent dels objectius dels seus creadors, també pot tenir accés complet a totes les dades emmagatzemades a Internet, així com a qualsevol dispositiu o humà que introdueixi dades a Internet i a través d'Internet. Això vol dir que no hi haurà límit pràctic a quant pot aprendre aquest ASI i quant pot millorar-se. 

    I aquest és el problema. 

    Comprendre l'explosió de la intel·ligència

    Aquest procés d'autosuperació que les IA acabaran guanyant a mesura que esdevinguin AGI (un procés que la comunitat d'IA anomena auto-millora recursiva) pot potencialment desfer un bucle de retroalimentació positiva que sembla així:

    Es crea un nou AGI, es dóna accés a un cos de robot o un gran conjunt de dades, i després se li dóna la senzilla tasca d'educar-se, de millorar la seva intel·ligència. Al principi, aquest AGI tindrà el coeficient intel·lectual d'un nadó que lluita per comprendre nous conceptes. Amb el temps, aprèn prou per assolir el coeficient intel·lectual d'un adult mitjà, però no s'atura aquí. Utilitzant aquest nou coeficient intel·lectual d'adults, és molt més fàcil i ràpid continuar amb aquesta millora fins a un punt en què el seu coeficient intel·lectual coincideix amb el dels humans més intel·ligents coneguts. Però de nou, no s'atura aquí.

    Aquest procés es composa a cada nou nivell d'intel·ligència, seguint la llei de l'acceleració dels rendiments fins que assoleix el nivell incalculable de superintel·ligència; és a dir, si no es controla i se li donen recursos il·limitats, un AGI es convertirà en un ASI, un intel·lecte que mai abans havia existit a la natura.

    Això és el que IJ Good va identificar per primera vegada quan va descriure aquesta "explosió d'intel·ligència" o el que els teòrics moderns de la IA, com Nick Bostrom, anomenen l'esdeveniment d'"enlairament" de la IA.

    Comprendre una superintel·ligència artificial

    En aquest punt, alguns de vosaltres probablement penseu que la diferència clau entre la intel·ligència humana i la intel·ligència d'un ASI és la rapidesa amb què pot pensar qualsevol dels dos bàndols. I si bé és cert que aquest futur teòric ASI pensarà més ràpid que els humans, aquesta habilitat ja és força habitual en el sector informàtic actual: el nostre telèfon intel·ligent pensa (calcula) més ràpid que una ment humana, un superordinador pensa milions de vegades més ràpid que un telèfon intel·ligent, i un futur ordinador quàntic pensarà encara més ràpid. 

    No, la velocitat no és la característica de la intel·ligència que estem explicant aquí. És la qualitat. 

    Podeu accelerar el cervell del vostre samoiedo o corgi tot el que vulgueu, però això no es tradueix en una nova comprensió de com interpretar el llenguatge o les idees abstractes. Fins i tot amb una o dues dècades més, aquests gossos no comprendran de sobte com fer o utilitzar eines, i molt menys comprendre les diferències més fines entre un sistema econòmic capitalista i socialista.

    Quan es tracta d'intel·ligència, els humans operen en un pla diferent al dels animals. De la mateixa manera, si un ASI assoleix tot el seu potencial teòric, les seves ments funcionaran a un nivell molt més enllà de l'abast de l'ésser humà modern mitjà. Per cert context, mirem les aplicacions d'aquests ASI.

    Com pot funcionar una superintel·ligència artificial al costat de la humanitat?

    Suposant que un determinat govern o corporació té èxit a l'hora de crear un ASI, com el podrien utilitzar? Segons Bostrom, hi ha tres formes separades però relacionades que aquests ASI poden adoptar:

    • Oracle. Aquí, interactuaríem amb un ASI de la mateixa manera que ja ho fem amb el cercador de Google; li farem una pregunta, però per molt complexa que sigui, l'ASI la respondrà perfectament i d'una manera que s'adapti a vostè i al context de la seva pregunta.
    • geni. En aquest cas, assignarem a un ASI una tasca específica i s'executarà tal com s'indica. Investigar una cura per al càncer. Fet. Trobeu tots els planetes amagats dins de l'endarreriment de 10 anys d'imatges del telescopi espacial Hubble de la NASA. Fet. Enginyeu un reactor de fusió que funcioni per resoldre la demanda d'energia de la humanitat. Abracadabra.
    • sobirà. Aquí, a l'ASI se li assigna una missió oberta i se li dóna la llibertat d'executar-la. Roba els secrets de R+D del nostre competidor corporatiu. "Fàcil." Descobriu les identitats de tots els espies estrangers que s'amaguen a les nostres fronteres. "En ell". Garantir la prosperitat econòmica continuada dels Estats Units. "Cap problema."

    Ara, sé el que estàs pensant, tot això sona força descabellat. És per això que és important recordar que tots els problemes/reptes que hi ha, fins i tot els que han sorprès les ments més brillants del món fins ara, tots es poden resoldre. Però la dificultat d'un problema es mesura per l'intel·lecte que l'aborda.

    En altres paraules, com més gran sigui la ment aplicada a un repte, més fàcil serà trobar una solució a aquest repte. Qualsevol repte. És com un adult que vegi un nen lluitar per entendre per què no pot encaixar un bloc quadrat en una obertura rodona; per a l'adult, mostrar-li al nen que el bloc ha de passar per l'obertura quadrada seria un joc de nens.

    De la mateixa manera, si aquest futur ASI assoleix tot el seu potencial, aquesta ment es convertiria en l'intel·lecte més poderós de l'univers conegut, prou poderós per resoldre qualsevol repte, per complex que sigui. 

    És per això que molts investigadors d'IA anomenen l'ASI l'últim invent que l'home haurà de fer mai. Si estem convençuts de treballar al costat de la humanitat, ens pot ajudar a resoldre tots els problemes més urgents del món. Fins i tot podem demanar-li que elimini totes les malalties i acabi amb l'envelliment tal com el coneixem. La humanitat pot per primera vegada enganyar la mort permanentment i entrar en una nova era de prosperitat.

    Però també és possible el contrari. 

    La intel·ligència és poder. Si mal gestionat o instruït per mals actors, aquest ASI podria convertir-se en l'última eina d'opressió, o podria exterminar completament la humanitat, penseu en Skynet de Terminator o l'arquitecte de les pel·lícules de Matrix.

    De fet, cap dels dos extrems és probable. El futur sempre és molt més desordenat del que prediuen els utòpics i els distòpics. És per això que ara que entenem el concepte d'un ASI, la resta d'aquesta sèrie explorarà com afectarà un ASI a la societat, com la societat es defensarà d'un ASI canalla i com podria semblar el futur si els humans i la IA visquin junts. - costat. Segueix llegint.

    Sèrie El futur de la intel·ligència artificial

    La intel·ligència artificial és l'electricitat del demà: el futur de la sèrie d'intel·ligència artificial P1

    Com la primera intel·ligència general artificial canviarà la societat: el futur de la intel·ligència artificial sèrie P2

    Una superintel·ligència artificial exterminarà la humanitat?: sèrie P4 del futur de la intel·ligència artificial

    Com es defensaran els humans d'una superintel·ligència artificial: sèrie P5 del futur de la intel·ligència artificial

    Viurem els humans en pau en un futur dominat per les intel·ligències artificials?: sèrie P6 de Future of Artificial Intelligence

    Propera actualització programada per a aquesta previsió

    2023-04-27

    Referències de previsió

    Es van fer referència als següents enllaços populars i institucionals per a aquesta previsió:

    Intel·ligència.org
    Intel·ligència.org
    Universitat de Manchester
    Intel·ligència.org

    Es van fer referència als següents enllaços Quantumrun per a aquesta previsió: