Comment nous allons créer la première superintelligence artificielle : l'avenir de l'intelligence artificielle P3

CRÉDIT D'IMAGE: Course quantique

Comment nous allons créer la première superintelligence artificielle : l'avenir de l'intelligence artificielle P3

    Au plus profond de la Seconde Guerre mondiale, les forces nazies déferlaient sur une grande partie de l'Europe. Ils avaient des armes de pointe, une industrie de guerre efficace, une infanterie fanatiquement conduite, mais surtout, ils avaient une machine appelée Enigma. Cet appareil a permis aux forces nazies de collaborer en toute sécurité sur de longues distances en s'envoyant des messages codés en morse sur des lignes de communication standard; c'était une machine à chiffrer imprenable pour les briseurs de code humains. 

    Heureusement, les Alliés ont trouvé une solution. Ils n'avaient plus besoin d'un esprit humain pour briser Enigma. Au lieu de cela, grâce à une invention du regretté Alan Turing, les Alliés ont construit un nouvel outil révolutionnaire appelé le Bombe britannique, un appareil électromécanique qui a finalement déchiffré le code secret des nazis et les a finalement aidés à gagner la guerre.

    Cette Bombe a jeté les bases de ce qui est devenu l'ordinateur moderne.

    IJ Good, un mathématicien et cryptologue britannique, a travaillé aux côtés de Turing pendant le projet de développement de Bombe. Il a vu très tôt la fin de partie que ce nouveau dispositif pourrait un jour apporter. Dans un papier 1965, il a écrit:

    « Définissons une machine ultra-intelligente comme une machine qui peut dépasser de loin toutes les activités intellectuelles de tout homme, aussi intelligent soit-il. Puisque la conception de machines fait partie de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors incontestablement une "explosion de l'intelligence", et l'intelligence de l'homme serait loin derrière... Ainsi la première machine ultra-intelligente est la dernière invention que l'homme ait jamais besoin de faire, à condition que la machine soit assez docile pour nous dire comment pour le garder sous contrôle.

    Création de la première superintelligence artificielle

    Jusqu'à présent, dans notre série sur l'avenir de l'intelligence artificielle, nous avons défini les trois grandes catégories d'intelligence artificielle (IA), de intelligence étroite artificielle (ANI) à intelligence générale artificielle (AGI), mais dans ce chapitre de la série, nous nous concentrerons sur la dernière catégorie - celle qui engendre l'excitation ou les attaques de panique parmi les chercheurs en IA - la superintelligence artificielle (ASI).

    Pour comprendre ce qu'est un ASI, vous devrez repenser au dernier chapitre où nous avons expliqué comment les chercheurs en IA pensent qu'ils créeront le premier AGI. Fondamentalement, il faudra une combinaison de mégadonnées alimentant de meilleurs algorithmes (ceux qui se spécialisent dans l'auto-amélioration et les capacités d'apprentissage de type humain) hébergés dans du matériel informatique de plus en plus puissant.

    Dans ce chapitre, nous avons également expliqué comment un esprit AGI (une fois qu'il a acquis ces capacités d'auto-amélioration et d'apprentissage que nous, les humains, tenons pour acquises) finira par surpasser l'esprit humain grâce à une vitesse de pensée supérieure, une mémoire améliorée, des performances infatigables et évolutivité instantanée.

    Mais ici, il est important de noter qu'une AGI ne s'améliorera que dans les limites du matériel et des données auxquelles elle a accès ; cette limite peut être grande ou petite selon le corps du robot que nous lui donnons ou l'échelle des ordinateurs auxquels nous lui autorisons l'accès.

    Pendant ce temps, la différence entre un AGI et un ASI est que ce dernier, théoriquement, n'existera jamais sous une forme physique. Il fonctionnera entièrement au sein d'un supercalculateur ou d'un réseau de supercalculateurs. Selon les objectifs de ses créateurs, il peut également obtenir un accès complet à toutes les données stockées sur Internet, ainsi qu'à tout appareil ou humain qui alimente des données vers et via Internet. Cela signifie qu'il n'y aura aucune limite pratique à ce que cet ASI peut apprendre et à ce qu'il peut s'améliorer. 

    Et c'est le hic. 

    Comprendre l'explosion de l'intelligence

    Ce processus d'auto-amélioration que les IA finiront par acquérir en devenant des AGI (un processus que la communauté de l'IA appelle l'auto-amélioration récursive) peut potentiellement déclencher une boucle de rétroaction positive qui ressemble un peu à ceci :

    Un nouvel AGI est créé, a accès à un corps de robot ou à un grand ensemble de données, puis se voit confier la simple tâche de s'éduquer, d'améliorer son intelligence. Au début, cet AGI aura le QI d'un enfant qui lutte pour saisir de nouveaux concepts. Au fil du temps, il en apprend suffisamment pour atteindre le QI d'un adulte moyen, mais cela ne s'arrête pas là. En utilisant ce nouveau QI adulte, il devient beaucoup plus facile et plus rapide de poursuivre cette amélioration jusqu'à un point où son QI correspond à celui des humains les plus intelligents connus. Mais encore une fois, cela ne s'arrête pas là.

    Ce processus s'aggrave à chaque nouveau niveau d'intelligence, suivant la loi des retours accélérés jusqu'à ce qu'il atteigne le niveau incalculable de superintelligence - en d'autres termes, s'il n'est pas contrôlé et dispose de ressources illimitées, un AGI s'améliorera en un ASI, un intellect qui n'a jamais existé auparavant dans la nature.

    C'est ce qu'IJ Good a identifié pour la première fois lorsqu'il a décrit cette "explosion de l'intelligence" ou ce que les théoriciens modernes de l'IA, comme Nick Bostrom, appellent l'événement de "décollage" de l'IA.

    Comprendre une superintelligence artificielle

    À ce stade, certains d'entre vous pensent probablement que la principale différence entre l'intelligence humaine et l'intelligence d'un ASI est la vitesse à laquelle chaque côté peut penser. Et s'il est vrai que ce futur ASI théorique pensera plus vite que les humains, cette capacité est déjà assez courante dans le secteur informatique d'aujourd'hui - notre smartphone pense (calcule) plus vite qu'un esprit humain, un supercalculateur pense des millions de fois plus vite qu'un smartphone, et un futur ordinateur quantique pensera encore plus vite. 

    Non, la vitesse n'est pas la caractéristique de l'intelligence que nous expliquons ici. C'est la qualité. 

    Vous pouvez accélérer le cerveau de votre Samoyède ou de votre Corgi autant que vous le souhaitez, mais cela ne se traduit pas par une nouvelle compréhension de l'interprétation du langage ou des idées abstraites. Même avec une décennie ou deux supplémentaires, ces doggos ne comprendront pas tout d'un coup comment fabriquer ou utiliser des outils, et encore moins comprendre les différences plus fines entre un système économique capitaliste et socialiste.

    En matière d'intelligence, les humains opèrent sur un plan différent de celui des animaux. De même, si un ASI atteint son plein potentiel théorique, son esprit fonctionnera à un niveau bien au-delà de la portée de l'humain moderne moyen. Pour un peu de contexte, regardons les applications de ces ASI.

    Comment une superintelligence artificielle pourrait-elle travailler aux côtés de l'humanité ?

    En supposant qu'un gouvernement ou une entreprise réussisse à créer une ASI, comment pourrait-il l'utiliser ? Selon Bostrom, il existe trois formes distinctes mais liées que ces ASI pourraient prendre :

    • Oracle Ici, nous interagirions avec un ASI comme nous le faisons déjà avec le moteur de recherche Google ; nous lui poserons une question, mais quelle que soit la complexité de ladite question, l'ASI y répondra parfaitement et d'une manière adaptée à vous et au contexte de votre question.
    • génie. Dans ce cas, nous attribuerons à un ASI une tâche spécifique, et il s'exécutera comme commandé. Recherchez un remède contre le cancer. Fait. Trouvez toutes les planètes cachées dans l'arriéré de 10 ans d'images du télescope spatial Hubble de la NASA. Fait. Concevez un réacteur à fusion fonctionnel pour répondre à la demande énergétique de l'humanité. Abracadabra.
    • Souverain. Ici, l'ASI se voit confier une mission à durée indéterminée et a la liberté de l'exécuter. Volez les secrets de la R&D à notre entreprise concurrente. "Facile." Découvrez l'identité de tous les espions étrangers qui se cachent à l'intérieur de nos frontières. "Dessus." Assurer la prospérité économique continue des États-Unis. "Aucun problème."

    Maintenant, je sais ce que vous pensez, tout cela semble assez tiré par les cheveux. C'est pourquoi il est important de se rappeler que tous les problèmes/défis, même ceux qui ont déconcerté les esprits les plus brillants du monde à ce jour, peuvent tous être résolus. Mais la difficulté d'un problème se mesure à l'intellect qui s'y attaque.

    En d'autres termes, plus l'esprit appliqué à un défi est grand, plus il devient facile de trouver une solution audit défi. N'importe quel défi. C'est comme un adulte qui regarde un bébé lutter pour comprendre pourquoi il ne peut pas insérer un bloc carré dans une ouverture ronde - pour l'adulte, montrer au bébé que le bloc doit passer à travers l'ouverture carrée serait un jeu d'enfant.

    De même, si ce futur ASI atteignait son plein potentiel, cet esprit deviendrait l'intellect le plus puissant de l'univers connu, suffisamment puissant pour résoudre n'importe quel défi, aussi complexe soit-il. 

    C'est pourquoi de nombreux chercheurs en intelligence artificielle appellent l'ASI la dernière invention que l'homme aura jamais à faire. S'il est convaincu de travailler aux côtés de l'humanité, il peut nous aider à résoudre tous les problèmes les plus urgents du monde. On peut même lui demander d'éliminer toutes les maladies et de mettre fin au vieillissement tel que nous le connaissons. L'humanité peut pour la première fois tromper définitivement la mort et entrer dans une nouvelle ère de prospérité.

    Mais l'inverse est aussi possible. 

    L'intelligence est le pouvoir. S'il est mal géré ou instruit par de mauvais acteurs, cet ASI pourrait devenir l'ultime outil d'oppression, ou il pourrait carrément exterminer complètement l'humanité – pensez à Skynet du Terminator ou à l'architecte des films Matrix.

    En vérité, aucun extrême n'est probable. L'avenir est toujours beaucoup plus désordonné que ne le prédisent les utopistes et les distopistes. C'est pourquoi maintenant que nous comprenons le concept d'un ASI, le reste de cette série explorera comment un ASI aura un impact sur la société, comment la société se défendra contre un ASI voyou et à quoi pourrait ressembler l'avenir si les humains et l'IA vivaient côte à côte. -côté. Continuer à lire.

    Série sur l'avenir de l'intelligence artificielle

    L'intelligence artificielle est l'électricité de demain : série P1 sur l'avenir de l'intelligence artificielle

    Comment la première Intelligence Artificielle Générale va changer la société : série Future of Artificial Intelligence P2

    Une superintelligence artificielle exterminera-t-elle l'humanité ? : série P4 sur l'avenir de l'intelligence artificielle

    Comment les humains se défendront contre une superintelligence artificielle : série P5 sur l'avenir de l'intelligence artificielle

    Les humains vivront-ils en paix dans un futur dominé par les intelligences artificielles ? : série P6 sur l'avenir de l'intelligence artificielle

    Prochaine mise à jour prévue pour cette prévision

    2023-04-27

    Références prévisionnelles

    Les liens populaires et institutionnels suivants ont été référencés pour cette prévision :

    Intelligence.org
    Intelligence.org
    Intelligence.org

    Les liens Quantumrun suivants ont été référencés pour cette prévision :