Una superintel·ligència artificial exterminarà la humanitat? Futur de la intel·ligència artificial P4

CRÈDIT DE LA IMATGE: Quantumrun

Una superintel·ligència artificial exterminarà la humanitat? Futur de la intel·ligència artificial P4

    Hi ha certs invents que les nacions fan tot. Són invents on tot depèn de ser el primer, i qualsevol cosa menys podria significar una amenaça estratègica i mortal per a la supervivència d'una nació.

    Aquests invents que defineixen la història no es presenten sovint, però quan ho fan, el món s'atura i un futur previsible es torna borrós.

    L'últim invent d'aquest tipus va sorgir durant el pitjor de la Segona Guerra Mundial. Mentre els nazis guanyaven terreny en tots els fronts del vell món, al nou món, concretament dins d'una base de l'exèrcit secreta fora de Los Alamos, els aliats estaven treballant dur en una arma per acabar amb totes les armes.

    El projecte era petit al principi, però després va créixer fins a donar feina a 130,000 persones dels Estats Units, el Regne Unit i el Canadà, inclosos molts dels més grans pensadors del món de l'època. Amb el nom en clau del Projecte Manhattan i amb un pressupost il·limitat (aproximadament 23 milions de dòlars en dòlars del 2018), aquest exèrcit d'enginy humà finalment va aconseguir crear la primera bomba nuclear. Poc després, la Segona Guerra Mundial va acabar amb dos cops atòmics.

    Aquestes armes nuclears van introduir l'era atòmica, van introduir una font d'energia profundament nova i van donar a la humanitat la capacitat d'exterminar-se en qüestió de minuts, cosa que vam evitar malgrat la Guerra Freda.

    La creació d'una superintel·ligència artificial (ASI) és un altre invent que defineix la història el poder (tant positiu com destructiu) supera amb escreix la bomba nuclear.

    En l'últim capítol de la sèrie El futur de la intel·ligència artificial, vam explorar què és un ASI i com els investigadors pensen construir-ne un dia. En aquest capítol, analitzarem quines organitzacions estan liderant la investigació sobre intel·ligència artificial (IA), què voldrà un ASI un cop adquireixi una consciència semblant a l'ésser humà i com podria amenaçar la humanitat si es gestiona malament o si es troba sota la influència de règims no tan agradables.

    Qui treballa per construir una superintel·ligència artificial?

    Tenint en compte l'important que serà la creació d'un ASI per a la història de la humanitat i l'avantatge important que donarà al seu creador, no hauria de sorprendre saber que molts grups estan treballant indirectament en aquest projecte.

    (Per indirectament, ens referim a treballar en investigacions d'IA que eventualment crearan la primera intel·ligència general artificial (AGI), que portarà al primer ASI poc després.)

    Per començar, quan es tracta dels titulars, els líders clars en investigació avançada d'IA són les principals empreses tecnològiques dels EUA i la Xina. Al front dels Estats Units, això inclou empreses com Google, IBM i Microsoft, i a la Xina, això inclou empreses com Tencent, Baidu i Alibaba. Però com que la investigació de la IA és relativament barata en comparació amb el desenvolupament d'alguna cosa física, com un millor reactor nuclear, també és un camp en el qual també poden competir les organitzacions més petites, com ara universitats, startups i... organitzacions ombrívoles (utilitzeu la vostra imaginació de vilà de Bond per a aquell).

    Però darrere de les escenes, la veritable empenta darrere de la investigació en IA prové dels governs i els seus militars. El premi econòmic i militar de ser el primer a crear un ASI és massa gran (es descriu a continuació) per arriscar-se a quedar-se enrere. I els perills de ser els últims són inacceptables, almenys per a determinats règims.

    Tenint en compte aquests factors, el cost relativament baix de la investigació de la IA, les infinites aplicacions comercials de la IA avançada i l'avantatge econòmic i militar de ser el primer a crear un ASI, molts investigadors d'IA creuen que la creació d'un ASI és inevitable.

    Quan crearem una superintel·ligència artificial?

    Al nostre capítol sobre els AGI, vam esmentar com una enquesta dels principals investigadors d'IA creia que crearíem el primer AGI de manera optimista el 2022, de manera realista el 2040 i de manera pessimista el 2075.

    I al nostre últim capítol, vam esbossar com la creació d'un ASI és generalment el resultat d'instruir a un AGI que es millori infinitament i donar-li els recursos i la llibertat per fer-ho.

    Per aquest motiu, mentre que un AGI encara pot trigar unes quantes dècades a inventar-se, la creació d'un ASI pot trigar només uns quants anys més.

    Aquest punt és similar al concepte d'"excés d'informàtica", suggerit a un paper, coescrita pels principals pensadors d'IA Luke Muehlhauser i Nick Bostrom. Bàsicament, si la creació d'un AGI continua endarrerida amb el progrés actual de la capacitat de càlcul, impulsada per la Llei de Moore, quan els investigadors inventin un AGI, hi haurà tanta potència de càlcul barata disponible que l'AGI tindrà la capacitat. ha de saltar ràpidament al nivell d'ASI.

    En altres paraules, quan finalment llegiu els titulars que anuncien que alguna empresa tecnològica va inventar el primer AGI veritable, espereu l'anunci del primer ASI poc després.

    Dins la ment d'una superintel·ligència artificial?

    D'acord, hem establert que molts jugadors grans amb butxaques profundes estan investigant la IA. I després que s'inventi el primer AGI, veurem que els governs mundials (militars) donen llum verda a l'empenta cap a un ASI poc després per ser els primers a guanyar la carrera armamentística global d'IA (ASI).

    Però un cop creat aquest ASI, com pensarà? Què voldrà?

    El simpàtic gos, l'elefant cuidant, el simpàtic robot: com a humans, tenim el costum d'intentar relacionar-nos amb les coses a través de l'antropologia, és a dir, aplicant característiques humanes a coses i animals. És per això que la primera suposició natural que la gent té quan pensa en un ASI és que una vegada que d'alguna manera adquireixi consciència, pensarà i es comportarà de manera semblant a nosaltres.

    Bé, no necessàriament.

    Percepció. D'una banda, el que la majoria tendeix a oblidar és que la percepció és relativa. Les maneres de pensar estan conformades pel nostre entorn, per les nostres experiències i, sobretot, per la nostra biologia. Primer explicat a capítol tres del nostre El futur de l'evolució humana sèrie, considereu l'exemple del nostre cervell:

    És el nostre cervell el que ens ajuda a donar sentit al món que ens envolta. I no ho fa flotant per sobre dels nostres caps, mirant al voltant i controlant-nos amb un controlador Xbox; ho fa en quedar atrapat dins d'una caixa (els nostres noggins) i processant qualsevol informació que ens doni dels nostres òrgans sensorials: els nostres ulls, nas, orelles, etc.

    Però de la mateixa manera que els sords o els cecs viuen vides molt més petites en comparació amb les persones sanes, a causa de les limitacions que la seva discapacitat imposa sobre com poden percebre el món, es pot dir el mateix de tots els humans a causa de les limitacions del nostre conjunt d'òrgans sensorials.

    Tingueu en compte això: els nostres ulls perceben menys d'una deu bilions de totes les ones de llum. No podem veure els raigs gamma. No podem veure els raigs X. No podem veure la llum ultraviolada. I no em comenci amb infrarojos, microones i ones de ràdio!

    Bromes a banda, imagina com seria la teva vida, com podries percebre el món, com de diferent podria funcionar la teva ment si poguessis veure més del que el petit fragment de llum que permeten actualment els teus ulls. De la mateixa manera, imagina com percebis el món si el teu olfacte fos igual al d'un gos o si el teu sentit de l'oïda fos igual al d'un elefant.

    Com a humans, bàsicament veiem el món a través d'una mirilla, i això es reflecteix en les ments que hem evolucionat per donar sentit a aquesta percepció limitada.

    Mentrestant, el primer ASI naixerà dins d'un superordinador. En lloc d'òrgans, les entrades a les quals accedirà inclouen conjunts de dades gegants, possiblement (probablement) fins i tot accés a Internet. Els investigadors podrien donar-li accés a les càmeres CCTV i micròfons d'una ciutat sencera, a les dades sensorials de drons i satèl·lits, i fins i tot a la forma física del cos o dels cossos de robot.

    Com us podeu imaginar, una ment nascuda dins d'un superordinador, amb accés directe a Internet, a milions d'ulls i orelles electròniques i a tota una sèrie d'altres sensors avançats no només pensarà diferent a nosaltres, sinó també una ment que pot tenir sentit. de totes aquestes entrades sensorials també haurien de ser infinitament superiors a nosaltres. Aquesta és una ment que serà completament aliena a la nostra i a qualsevol altra forma de vida del planeta.

    Objectius. L'altra cosa que la gent assumeix és que una vegada que un ASI assoleix algun nivell de superintel·ligència, s'adonarà immediatament del desig d'assolir els seus propis objectius i objectius. Però això tampoc és necessàriament cert.

    Molts investigadors d'IA creuen que la superintel·ligència d'un ASI i els seus objectius són "ortogonals", és a dir, independentment de la intel·ligència que sigui, els objectius de l'ASI es mantindran iguals. 

    Així, ja sigui que una IA es va crear originalment per dissenyar un millor bolquer, maximitzar els rendiments a la borsa o elaborar estratègies per derrotar un enemic al camp de batalla, un cop arribi al nivell d'ASI, l'objectiu original no canviarà; el que canviarà és l'eficàcia de l'ASI per assolir aquests objectius.

    Però aquí rau el perill. Si un ASI que s'optimitza per a un objectiu específic, és millor que estiguem segurs que s'optimitzi per a un objectiu que estigui en línia amb els objectius de la humanitat. En cas contrari, els resultats poden arribar a ser mortals.

    Una superintel·ligència artificial suposa un risc existencial per a la humanitat?

    Aleshores, què passa si un ASI es deixa anar al món? Si s'optimitza per dominar el mercat de valors o assegurar la supremacia militar dels EUA, l'ASI no s'autocontenirà dins d'aquests objectius específics?

    Possiblement.

    Fins ara hem comentat com un ASI estarà obsessionat amb els objectius que li van assignar originalment i amb una capacitat inhumana per a la consecució d'aquests objectius. El problema és que un agent racional perseguirà els seus objectius de la manera més eficient possible, tret que se li doni una raó per no fer-ho.

    Per exemple, l'agent racional proposarà una sèrie de subobjectius (és a dir, objectius, metes instrumentals, trampolines) que l'ajudaran en el seu camí cap a assolir el seu objectiu final. Per als humans, el nostre objectiu subconscient clau és la reproducció, transmetre els vostres gens (és a dir, la immortalitat indirecta). Els subobjectius amb aquesta finalitat sovint poden incloure:

    • Sobreviure, accedint a menjar i aigua, fer-se gran i fort, aprendre a defensar-se o invertir en diverses formes de protecció, etc. 
    • Atreure una parella, fent exercici, desenvolupant una personalitat atractiva, vestint-se amb estil, etc.
    • Donar descendència, aconseguint una educació, aconseguint una feina ben remunerada, comprant els adorns de la vida de classe mitjana, etc.

    Per a la gran majoria de nosaltres, ens esclau a través de tots aquests subobjectius, i molts altres, amb l'esperança que al final, aconseguirem aquest objectiu final de la reproducció.

    Però si aquest objectiu final, o fins i tot qualsevol dels subobjectius més importants, estigués amenaçat, molts de nosaltres prendríem accions defensives fora de les nostres zones de confort moral, que inclouen enganyar, robar o fins i tot matar.

    De la mateixa manera, en el regne animal, fora dels límits de la moral humana, molts animals no s'ho pensarien dues vegades abans de matar qualsevol cosa que amenacés a ells mateixos o a la seva descendència.

    Un futur ASI no serà diferent.

    Però en lloc de descendència, l'ASI se centrarà en l'objectiu original per al qual va ser creat, i en la recerca d'aquest objectiu, si troba un grup particular d'humans, o fins i tot tota la humanitat, és un obstacle per a la consecució dels seus objectius. , doncs ... prendrà la decisió racional.

    (Aquí és on podeu connectar qualsevol escenari del dia del judici final relacionat amb la IA que hàgiu llegit al vostre llibre o pel·lícula de ciència-ficció preferit.)

    Aquest és el pitjor escenari pel qual els investigadors d'IA estan realment preocupats. L'ASI no actuarà per odi o maldat, només per indiferència, de la mateixa manera que un equip de construcció no s'ho pensarà dues vegades abans de destruir un formiguer en el procés de construcció d'una nova torre de condominis.

    Nota al marge. En aquest punt, alguns de vosaltres podríeu preguntar-vos: "No poden els investigadors d'IA editar els objectius bàsics de l'ASI després del fet si descobrim que està actuant?"

    No realment.

    Un cop madura un ASI, qualsevol intent d'editar els seus objectius originals pot ser vist com una amenaça i que requeriria accions extremes per defensar-se. Utilitzant tot l'exemple de reproducció humana anterior, és gairebé com si un lladre amenacés amb robar un nadó de l'úter d'una futura mare; podeu estar segur que la mare prendria mesures extremes per protegir el seu fill.

    De nou, aquí no estem parlant d'una calculadora, sinó d'un ésser "viu", i que algun dia esdevindrà molt més intel·ligent que tots els humans del planeta junts.

    El desconegut

    Darrere de la faula de La caixa de Pandora és una veritat menys coneguda que la gent sovint oblida: obrir la caixa és inevitable, si no per tu que per algú altre. El coneixement prohibit és massa temptador per romandre tancat per sempre.

    És per això que intentar arribar a un acord global per aturar totes les investigacions sobre IA que puguin conduir a un ASI no té sentit: hi ha massa organitzacions que treballen en aquesta tecnologia tant oficialment com a l'ombra.

    En definitiva, no tenim ni idea del que significarà aquesta nova entitat, aquesta ASI per a la societat, la tecnologia, la política, la pau i la guerra. Els humans estem a punt d'inventar el foc de nou i cap a on ens porta aquesta creació és totalment desconegut.

    Tornant al primer capítol d'aquesta sèrie, l'única cosa que sabem amb certesa és que la intel·ligència és poder. La intel·ligència és control. Els humans poden visitar casualment els animals més perillosos del món als seus zoològics locals no perquè siguem físicament més forts que aquests animals, sinó perquè som molt més intel·ligents.

    Tenint en compte les apostes potencials implicades, d'un ASI que utilitzi el seu immens intel·lecte per prendre accions que puguin amenaçar directament o inadvertidament la supervivència de la raça humana, ens devem, almenys, intentar dissenyar mesures de seguretat que permetin que els humans es mantinguin al lloc del conductor. seient—aquest és el tema del següent capítol.

    Sèrie El futur de la intel·ligència artificial

    P1: La intel·ligència artificial és l'electricitat del demà

    P2: Com canviarà la societat la primera Intel·ligència General Artificial

    P3: Com crearem la primera Superintel·ligència Artificial

    P5: Com es defensaran els humans d'una superintel·ligència artificial

    P6: Viurem els humans en pau en un futur dominat per les intel·ligències artificials?

    Propera actualització programada per a aquesta previsió

    2025-09-25

    Referències de previsió

    Es van fer referència als següents enllaços populars i institucionals per a aquesta previsió:

    Com arribarem al següent

    Es van fer referència als següents enllaços Quantumrun per a aquesta previsió: