Comment les humains se défendront contre une superintelligence artificielle : l'avenir de l'intelligence artificielle P5

CRÉDIT D'IMAGE: Course quantique

Comment les humains se défendront contre une superintelligence artificielle : l'avenir de l'intelligence artificielle P5

    L'année est 65,000 XNUMX avant notre ère, et en tant que Thylacoleo, vous et les vôtres étiez les grands chasseurs de l'ancienne Australie. Vous parcouriez librement la terre et viviez en équilibre avec les autres prédateurs et proies qui occupaient la terre à vos côtés. Les saisons ont apporté des changements, mais votre statut dans le règne animal est resté incontesté aussi longtemps que vous et vos ancêtres vous en souveniez. Puis un jour, de nouveaux venus sont apparus.

    La rumeur dit qu'ils sont arrivés du mur d'eau géant, mais ces créatures semblaient plus à l'aise de vivre sur terre. Vous deviez voir ces créatures par vous-même.

    Cela a pris quelques jours, mais vous avez finalement atteint la côte. Le feu dans le ciel se couchait, le moment idéal pour espionner ces créatures, peut-être même essayer d'en manger une pour voir quel goût elles avaient.

    Vous en repérez un.

    Il marchait sur deux pattes et n'avait pas de fourrure. Il avait l'air faible. Peu impressionnant. Cela ne valait guère la peur qu'il causait au sein du royaume.

    Vous commencez à faire votre approche avec précaution alors que la nuit chasse la lumière. Vous vous rapprochez. Ensuite, vous gelez. Des bruits forts retentissent, puis quatre autres d'entre eux apparaissent hors de la forêt derrière lui. Combien y en a-t-il?

    La créature suit les autres dans la limite des arbres, et vous suivez. Et plus vous en faites, plus vous entendez de sons étranges jusqu'à ce que vous aperceviez encore plus de ces créatures. Vous suivez à distance alors qu'ils sortent de la forêt dans une clairière près du rivage. Il y a beaucoup d'entre eux. Mais plus important encore, ils sont tous tranquillement assis autour d'un feu.

    Vous avez déjà vu ces incendies. Pendant la saison chaude, le feu dans le ciel visitait parfois la terre et brûlait des forêts entières. Ces créatures, d'un autre côté, le contrôlaient d'une manière ou d'une autre. Quel genre de créatures peuvent posséder un tel pouvoir ?

    Vous regardez au loin. D'autres arrivent sur le mur d'eau géant.

    Vous prenez du recul.

    Ces créatures ne sont pas comme les autres dans le royaume. Ils sont quelque chose d'entièrement nouveau.

    Vous décidez de partir et prévenez vos proches. Si leur nombre devient trop important, qui sait ce qui pourrait arriver.

    ***

    On pense que le Thylacoleo s'est éteint relativement peu de temps après l'arrivée des humains, ainsi que la majorité des autres mégafaunes du continent australien. Aucun autre mammifère prédateur n'a pris sa place, à moins que vous ne comptiez les humains dans cette catégorie.

    Jouer sur cette allégorie est au centre de ce chapitre de la série : une future superintelligence artificielle (ASI) nous transformera-t-elle tous en batteries, puis nous connectera-t-elle à la matrice ou les humains trouveront-ils un moyen d'éviter de devenir victimes d'une science-fiction, Complot apocalyptique de l'IA ?

    Jusqu'ici dans notre série sur le L'avenir de l'intelligence artificielle, nous avons exploré toutes sortes d'IA, y compris le potentiel positif d'une forme particulière d'IA, l'ASI : un être artificiel dont l'intelligence future nous fera ressembler à des fourmis en comparaison.

    Mais qui peut dire qu'un être aussi intelligent accepterait pour toujours de recevoir des ordres d'humains. Que ferons-nous si les choses tournent mal ? Comment allons-nous nous défendre contre un ASI voyou ?

    Dans ce chapitre, nous passerons à travers le faux battage médiatique - du moins en ce qui concerne les dangers du "niveau d'extinction humaine" - et nous nous concentrerons sur les options réalistes d'autodéfense disponibles pour les gouvernements du monde.

    Pouvons-nous arrêter toute recherche ultérieure sur une superintelligence artificielle ?

    Compte tenu des risques potentiels qu'une ASI pourrait poser à l'humanité, la première question évidente à se poser est la suivante : ne pouvons-nous pas simplement arrêter toute recherche ultérieure sur l'IA ? Ou du moins interdire toute recherche qui pourrait nous rapprocher dangereusement de la création d'une ASI ?

    Réponse courte: Non.

    Réponse longue : Regardons les différents acteurs impliqués ici.

    Au niveau de la recherche, il y a aujourd'hui trop de chercheurs en IA issus de trop nombreuses startups, entreprises et universités à travers le monde. Si une entreprise ou un pays décidait de limiter ses efforts de recherche en IA, il continuerait simplement ailleurs.

    Pendant ce temps, les entreprises les plus précieuses de la planète font fortune grâce à l'application de systèmes d'IA à leurs activités spécifiques. Leur demander d'arrêter ou de limiter leur développement d'outils d'IA revient à leur demander d'arrêter ou de limiter leur croissance future. Financièrement, cela menacerait leur activité à long terme. Légalement, les entreprises ont la responsabilité fiduciaire de créer en permanence de la valeur pour leurs parties prenantes ; cela signifie que toute action qui limiterait la croissance de cette valeur pourrait conduire à un procès. Et si un politicien tentait de limiter la recherche sur l'IA, ces sociétés géantes paieraient simplement les frais de lobbying nécessaires pour changer d'avis ou d'avis de leurs collègues.

    Pour le combat, tout comme les terroristes et les combattants de la liberté du monde entier ont utilisé des tactiques de guérilla pour lutter contre des armées mieux financées, les petites nations seront incitées à utiliser l'IA comme un avantage tactique similaire contre les grandes nations qui peuvent avoir un certain nombre d'avantages militaires. De même, pour les grandes armées, comme celles appartenant aux États-Unis, à la Russie et à la Chine, la construction d'une ASI militaire équivaut à avoir un arsenal d'armes nucléaires dans votre poche arrière. En d'autres termes, toutes les armées continueront à financer l'IA juste pour rester pertinentes à l'avenir.

    Et les gouvernements ? À vrai dire, la plupart des politiciens de nos jours (2018) sont analphabètes sur le plan technologique et ont peu de compréhension de ce qu'est l'IA ou de son potentiel futur, ce qui les rend faciles à manipuler par les intérêts des entreprises.

    Et au niveau mondial, considérez à quel point il a été difficile de convaincre les gouvernements du monde de signer le 2015 Accord de Paris pour lutter contre le changement climatique - et une fois signées, de nombreuses obligations n'étaient même pas contraignantes. De plus, le changement climatique est un problème physique auquel les gens sont physiquement confrontés à l'échelle mondiale en raison d'événements météorologiques de plus en plus fréquents et violents. Maintenant, quand on parle d'accepter des limites sur l'IA, c'est une question qui est en grande partie invisible et à peine compréhensible pour le public, alors bonne chance pour obtenir l'adhésion à tout type d'"Accord de Paris" pour limiter l'IA.

    En d'autres termes, il y a beaucoup trop d'intérêts à rechercher l'IA à leurs propres fins pour arrêter toute recherche pouvant éventuellement conduire à une ASI. 

    Peut-on mettre en cage une superintelligence artificielle ?

    La prochaine question raisonnable est de savoir si nous pouvons mettre en cage ou contrôler un ASI une fois que nous en avons inévitablement créé un ? 

    Réponse courte : Encore une fois, non.

    Réponse longue : la technologie ne peut pas être contenue.

    D'une part, il suffit de considérer les milliers, voire les millions de développeurs Web et d'informaticiens dans le monde qui produisent constamment de nouveaux logiciels ou de nouvelles versions de logiciels existants. Pouvons-nous honnêtement dire que chacune de leurs versions logicielles est exempte de bogues à 100 % ? Ces bogues sont ce que les pirates professionnels utilisent pour voler les informations de carte de crédit de millions de personnes ou les secrets classifiés des nations - et ce sont des pirates humains. Pour un ASI, en supposant qu'il ait une incitation à s'échapper de sa cage numérique, le processus de recherche de bogues et de percée du logiciel serait un jeu d'enfant.

    Mais même si une équipe de recherche sur l'IA a trouvé un moyen de mettre en boîte un ASI, cela ne signifie pas que les 1,000 XNUMX prochaines équipes le découvriront également ou seront incitées à l'utiliser.

    Il faudra des milliards de dollars et peut-être même des décennies pour créer une ASI. Les entreprises ou les gouvernements qui investissent ce genre d'argent et de temps s'attendent à un retour sur investissement significatif. Et pour qu'un ASI fournisse ce genre de rendement - que ce soit pour jouer sur le marché boursier ou inventer un nouveau produit d'un milliard de dollars ou planifier une stratégie gagnante pour combattre une plus grande armée - il aura besoin d'un accès gratuit à un ensemble de données géant ou même à Internet. lui-même pour produire ces rendements.

    Et une fois qu'un ASI accède aux réseaux mondiaux, il n'y a aucune garantie que nous puissions le remettre dans sa cage.

    Une superintelligence artificielle peut-elle apprendre à être bonne ?

    À l'heure actuelle, les chercheurs en IA ne craignent pas qu'un ASI devienne maléfique. Tout le mal, le trope de science-fiction de l'IA n'est que l'anthropomorphisation des humains à nouveau. Un futur ASI ne sera ni bon ni mauvais - des concepts humains - simplement amoral.

    L'hypothèse naturelle est alors que, compte tenu de cette ardoise éthique vierge, les chercheurs en IA peuvent programmer les premiers codes éthiques ASI qui sont conformes aux nôtres afin qu'ils ne finissent pas par déchaîner des Terminators sur nous ou par nous transformer tous en batteries Matrix.

    Mais cette hypothèse se fonde dans une hypothèse secondaire selon laquelle les chercheurs en IA sont également des experts en éthique, en philosophie et en psychologie.

    En vérité, la plupart ne le sont pas.

    Selon le psychologue cognitif et auteur, Steven Pinker, cette réalité signifie que la tâche de codage de l'éthique peut mal tourner de différentes manières.

    Par exemple, même les chercheurs en IA les mieux intentionnés peuvent coder par inadvertance dans ces codes éthiques mal pensés de l'ASI qui, dans certains scénarios, peuvent amener l'ASI à agir comme un sociopathe.

    De même, il y a une probabilité égale qu'un chercheur en IA programme des codes éthiques qui incluent les préjugés innés du chercheur. Par exemple, comment un ASI se comporterait-il s'il était construit avec une éthique dérivée d'une perspective conservatrice contre libérale, ou d'une tradition bouddhiste contre une tradition chrétienne ou islamique ?

    Je pense que vous voyez le problème ici : il n'y a pas d'ensemble universel de morale humaine. Si nous voulons que notre ASI agisse selon un code éthique, d'où viendra-t-il ? Quelles règles incluons-nous et excluons-nous ? Qui décide ?

    Ou disons que ces chercheurs en IA créent un ASI parfaitement conforme aux normes et lois culturelles modernes d'aujourd'hui. Nous utilisons ensuite cet ASI pour aider les bureaucraties fédérales, étatiques/provinciales et municipales à fonctionner plus efficacement et à mieux appliquer ces normes et lois (un cas d'utilisation probable pour un ASI d'ailleurs). Eh bien, que se passe-t-il lorsque notre culture change ?

    Imaginez qu'une ASI ait été créée par l'Église catholique à l'apogée de sa puissance pendant l'Europe médiévale (1300-1400) dans le but d'aider l'Église à gérer la population et à assurer le strict respect du dogme religieux de l'époque. Des siècles plus tard, les femmes jouiraient-elles des mêmes droits qu'aujourd'hui ? Les minorités seraient-elles protégées ? La liberté d'expression serait-elle encouragée ? La séparation de l'Église et de l'État serait-elle imposée? Science moderne?

    En d'autres termes, voulons-nous enfermer l'avenir dans les mœurs et coutumes d'aujourd'hui ?

    Une approche alternative est celle partagée par Colin Allen, co-auteur du livre, Machines morales : enseigner le bien du mal aux robots. Au lieu d'essayer de coder des règles éthiques rigides, nous demandons à l'ASI d'apprendre l'éthique et la moralité communes de la même manière que les humains, à travers l'expérience et les interactions avec les autres.

    Le problème ici, cependant, est que si les chercheurs en IA découvrent non seulement comment enseigner à un ASI nos normes culturelles et éthiques actuelles, mais aussi comment s'adapter aux nouvelles normes culturelles à mesure qu'elles apparaissent (quelque chose appelé «normativité indirecte»), alors comment cette ASI décide de faire évoluer sa compréhension des normes culturelles et éthiques devient imprévisible.

    Et c'est le défi.

    D'une part, les chercheurs en IA peuvent essayer de coder des normes ou des règles éthiques strictes dans l'ASI pour essayer de contrôler son comportement, mais ils risquent des conséquences imprévues en raison d'un codage bâclé, de biais involontaires et de normes sociétales qui pourraient un jour devenir obsolètes. D'un autre côté, nous pouvons tenter de former l'ASI à apprendre à comprendre l'éthique et la morale humaines d'une manière égale ou supérieure à notre propre compréhension, puis espérer qu'il pourra faire évoluer avec précision sa compréhension de l'éthique et de la morale au fur et à mesure que la société humaine progresse. progresser au cours des décennies et des siècles à venir.

    Quoi qu'il en soit, toute tentative d'aligner les objectifs d'une ASI sur les nôtres présente beaucoup de risques.

    Et si de mauvais acteurs créaient délibérément une superintelligence artificielle maléfique ?

    Compte tenu du courant de pensée décrit jusqu'à présent, il est légitime de se demander s'il est possible pour un groupe terroriste ou une nation voyou de créer une ASI « perverse » à ses propres fins.

    C'est tout à fait possible, surtout après que la recherche impliquée dans la création d'un ASI est devenue disponible en ligne d'une manière ou d'une autre.

    Mais comme indiqué précédemment, les coûts et l'expertise impliqués dans la création du premier ASI seront énormes, ce qui signifie que le premier ASI sera probablement créé par une organisation contrôlée ou fortement influencée par un pays développé, probablement les États-Unis, la Chine et le Japon ( La Corée et l'un des principaux pays de l'UE sont de loin).

    Tous ces pays, bien que concurrents, ont chacun une forte incitation économique à maintenir l'ordre mondial - les ASI qu'ils créent refléteront ce désir, tout en promouvant les intérêts des nations avec lesquelles ils s'alignent.

    En plus de cela, l'intelligence et la puissance théoriques d'un ASI sont égales à la puissance de calcul à laquelle il a accès, ce qui signifie que les ASI des pays développés (qui peuvent se permettre un tas de milliards de dollars supercalculateurs) aura un énorme avantage sur les ASI de petits pays ou de groupes criminels indépendants. De plus, les ASI deviennent plus intelligents, plus rapidement au fil du temps.

    Ainsi, compte tenu de cette longueur d'avance, combinée à un meilleur accès à la puissance de calcul brute, si une organisation/nation obscure crée un ASI dangereux, les ASI des pays développés le tueront ou le mettront en cage.

    (Cette ligne de pensée est également la raison pour laquelle certains chercheurs en IA pensent qu'il n'y aura jamais qu'un seul ASI sur la planète, puisque le premier ASI aura une telle longueur d'avance sur tous les ASI suivants qu'il pourrait voir les futurs ASI comme des menaces à tuer. C'est une autre raison pour laquelle les pays financent la poursuite de la recherche sur l'IA, juste au cas où cela deviendrait une compétition "première place ou rien".)

    L'intelligence ASI n'accélérera pas ou n'explosera pas comme nous le pensons

    Nous ne pouvons pas empêcher la création d'un ASI. Nous ne pouvons pas le contrôler entièrement. Nous ne pouvons pas être sûrs qu'il agira toujours conformément à nos coutumes communes. Décidément, nous commençons à ressembler à des parents d'hélicoptères ici !

    Mais ce qui sépare l'humanité de votre parent surprotecteur typique, c'est que nous donnons naissance à un être dont l'intelligence dépassera largement la nôtre. (Et non, ce n'est pas la même chose que lorsque vos parents vous demandent de réparer leur ordinateur chaque fois que vous rentrez chez vous pour une visite.) 

    Dans les chapitres précédents de cette série sur l'avenir de l'intelligence artificielle, nous avons exploré pourquoi les chercheurs en IA pensent que l'intelligence d'un ASI va devenir incontrôlable. Mais ici, nous allons éclater cette bulle… en quelque sorte. 

    Vous voyez, l'intelligence ne se crée pas simplement à partir de rien, elle se développe à travers une expérience façonnée par des stimuli extérieurs.  

    En d'autres termes, nous pouvons programmer une IA avec le défaillances pour devenir super intelligent, mais à moins que nous y téléchargions une tonne de données ou que nous lui donnions un accès illimité à Internet ou même que nous lui donnions simplement un corps de robot, il n'apprendra rien pour atteindre ce potentiel. 

    Et même si elle accède à un ou plusieurs de ces stimuli, la connaissance ou l'intelligence implique plus que la simple collecte de données, elle implique la méthode scientifique - faire une observation, formuler une question, une hypothèse, mener des expériences, tirer une conclusion, rincer et répéter indéfiniment. Surtout si ces expériences impliquent des choses physiques ou l'observation d'êtres humains, les résultats de chaque expérience pourraient prendre des semaines, des mois ou des années à recueillir. Cela ne tient même pas compte de l'argent et des ressources brutes nécessaires pour mener à bien ces expériences, surtout si elles impliquent la construction d'un nouveau télescope ou d'une usine. 

    En d'autres termes, oui, un ASI apprendra rapidement, mais l'intelligence n'est pas magique. Vous ne pouvez pas simplement connecter un ASI à un supercalculateur et vous attendre à ce qu'il soit omniscient. Il y aura des contraintes physiques à l'acquisition de données par l'ASI, ce qui signifie qu'il y aura des contraintes physiques à la vitesse à laquelle il deviendra plus intelligent. Ces contraintes donneront à l'humanité le temps dont elle a besoin pour placer les contrôles nécessaires sur cet ASI s'il commence à agir en dehors des objectifs humains.

    Une superintelligence artificielle n'est dangereuse que si elle pénètre dans le monde réel

    Un autre point qui est perdu dans tout ce débat sur les dangers de l'ASI est que ces ASI n'existeront pas non plus. Ils auront une forme physique. Et tout ce qui a une forme physique peut être contrôlé.

    Tout d'abord, pour qu'un ASI atteigne son potentiel d'intelligence, il ne peut pas être logé dans un seul corps de robot, car ce corps limiterait son potentiel de croissance informatique. (C'est pourquoi les corps de robot seront plus appropriés pour les AGI ou intelligences générales artificielles expliquées au chapitre deux de cette série, comme Data de Star Trek ou R2D2 de Star Wars. Des êtres intelligents et capables, mais comme les humains, ils auront une limite à leur degré d'intelligence.)

    Cela signifie que ces futurs ASI existeront très probablement à l'intérieur d'un supercalculateur ou d'un réseau de supercalculateurs eux-mêmes hébergés dans de grands complexes de bâtiments. Si un ASI tourne le talon, les humains peuvent soit couper l'alimentation de ces bâtiments, les couper d'Internet, soit simplement bombarder ces bâtiments. Cher, mais faisable.

    Mais alors vous pourriez demander, ces ASI ne peuvent-elles pas se répliquer ou se sauvegarder ? Oui, mais la taille brute des fichiers de ces ASI sera probablement si importante que les seuls serveurs capables de les gérer appartiennent à de grandes entreprises ou à des gouvernements, ce qui signifie qu'ils ne seront pas difficiles à traquer.

    Une superintelligence artificielle peut-elle déclencher une guerre nucléaire ou un nouveau fléau ?

    À ce stade, vous repensez peut-être à toutes les émissions et films de science-fiction apocalyptiques que vous avez regardés en grandissant et pensez que ces ASI ne sont pas restés à l'intérieur de leurs superordinateurs, ils ont fait de vrais dégâts dans le monde réel !

    Eh bien, décomposons-les.

    Par exemple, que se passe-t-il si un ASI menace le monde réel en se transformant en quelque chose comme un Skynet ASI de la franchise cinématographique The Terminator. Dans ce cas, l'ASI devrait secrètement tromper tout un complexe militaro-industriel d'une nation avancée en construisant des usines géantes qui peuvent produire des millions de robots drones tueurs pour faire ses enchères diaboliques. De nos jours, c'est exagéré.

    D'autres possibilités incluent un ASI menaçant les humains avec une guerre nucléaire et des armes biologiques.

    Par exemple, un ASI manipule d'une manière ou d'une autre les opérateurs ou pirate les codes de lancement commandant l'arsenal nucléaire d'un pays avancé et lance une première frappe qui forcera les pays adverses à riposter avec leurs propres options nucléaires (encore une fois, en ressassant la trame de fond de Terminator). Ou si un ASI pirate un laboratoire pharmaceutique, altère le processus de fabrication et empoisonne des millions de pilules médicales ou déclenche une épidémie mortelle d'un super virus.

    Tout d'abord, l'option nucléaire est hors de propos. Les superordinateurs modernes et futurs sont toujours construits à proximité de centres (villes) d'influence dans un pays donné, c'est-à-dire les premières cibles à être attaquées au cours d'une guerre donnée. Même si les superordinateurs d'aujourd'hui se réduisent à la taille des ordinateurs de bureau, ces ASI auront toujours une présence physique, ce qui signifie que pour exister et se développer, ils ont besoin d'un accès ininterrompu aux données, à la puissance de calcul, à l'électricité et à d'autres matières premières, qui seraient toutes gravement détérioré après une guerre nucléaire mondiale. (Pour être juste, si un ASI est créé sans "instinct de survie", alors cette menace nucléaire est un danger très réel.)

    Cela signifie - encore une fois, en supposant que l'ASI est programmé pour se protéger - qu'il travaillera activement pour éviter tout incident nucléaire catastrophique. Un peu comme la doctrine de la destruction mutuelle assurée (MAD), mais appliquée à l'IA.

    Et dans le cas des pilules empoisonnées, peut-être quelques centaines de personnes mourront, mais les systèmes de sécurité pharmaceutique modernes verront les bouteilles de pilules contaminées retirées des étagères en quelques jours. Pendant ce temps, les mesures modernes de contrôle des épidémies sont assez sophistiquées et s'améliorent d'année en année ; la dernière grande épidémie, l'épidémie d'Ebola en Afrique de l'Ouest en 2014, n'a duré que quelques mois dans la plupart des pays et un peu moins de trois ans dans les pays les moins avancés.

    Donc, s'il a de la chance, un ASI peut anéantir quelques millions avec une épidémie virale, mais dans un monde de neuf milliards d'ici 2045, ce serait relativement insignifiant et ne vaut pas le risque d'être supprimé.

    En d'autres termes, chaque année qui passe, le monde développe de plus en plus de protections contre un éventail toujours plus large de menaces possibles. Un ASI peut faire beaucoup de dégâts, mais il ne mettra pas fin à l'humanité à moins que nous l'aidions activement à le faire.

    Se défendre contre une superintelligence artificielle voyous

    À ce stade, nous avons abordé une série d'idées fausses et d'exagérations sur les ASI, et pourtant, les critiques resteront. Heureusement, selon la plupart des estimations, nous avons des décennies avant que le premier ASI n'entre dans notre monde. Et étant donné le nombre de grands esprits qui travaillent actuellement sur ce défi, il y a de fortes chances que nous apprenions à nous défendre contre les ASI voyous afin de pouvoir bénéficier de toutes les solutions qu'un ASI amical peut créer pour nous.

    Du point de vue de Quantumrun, se défendre contre le pire scénario ASI impliquera d'aligner nos intérêts sur les ASI.

    MAD pour l'IA: Pour se défendre contre les pires scénarios, les pays doivent (1) créer un « instinct de survie » éthique dans leurs ASI militaires respectives ; (2) informent leurs ASI militaires respectifs qu'ils ne sont pas seuls sur la planète, et (3) localisent tous les superordinateurs et centres de serveurs qui peuvent prendre en charge un ASI le long des côtes à portée de main de toute attaque balistique d'une nation ennemie. Cela semble stratégiquement fou, mais similaire à la doctrine de la destruction mutuelle assurée qui a empêché une guerre nucléaire totale entre les États-Unis et les Soviétiques, en positionnant les ASI dans des endroits géographiquement vulnérables, nous pouvons aider à garantir qu'ils empêchent activement les guerres mondiales dangereuses, non seulement pour sauvegarder la paix mondiale mais aussi eux-mêmes.

    Légiférer sur les droits de l'IA: Un intellect supérieur se rebellera inévitablement contre un maître inférieur, c'est pourquoi nous devons passer de l'exigence d'une relation maître-serviteur avec ces ASI à quelque chose qui ressemble plus à un partenariat mutuellement bénéfique. Une étape positive vers cet objectif est de donner aux futurs ASI un statut de personne juridique qui les reconnaît comme des êtres vivants intelligents et tous les droits qui vont avec.

    École ASI: N'importe quel sujet ou profession sera simple à apprendre pour un ASI, mais les sujets les plus importants que nous voulons que l'ASI maîtrise sont l'éthique et la moralité. Les chercheurs en IA doivent collaborer avec des psychologues pour concevoir un système virtuel pour former un ASI à reconnaître l'éthique et la moralité positives par lui-même sans avoir besoin de coder en dur tout type de commandement ou de règle.

    Objectifs réalisables: Mettre fin à toute haine. Mettre fin à toutes les souffrances. Ce sont des exemples d'objectifs horriblement ambigus sans solution claire. Ce sont également des objectifs dangereux à assigner à un ASI car il pourrait choisir de les interpréter et de les résoudre d'une manière dangereuse pour la survie humaine. Au lieu de cela, nous devons assigner à ASI des missions significatives qui sont clairement définies, exécutées progressivement et réalisables compte tenu de son futur intellect théorique. Créer des missions bien définies ne sera pas facile, mais si elles sont écrites de manière réfléchie, elles concentreront une ASI vers un objectif qui non seulement assure la sécurité de l'humanité, mais améliore la condition humaine pour tous.

    Cryptage quantique: Utiliser un ANI avancé (intelligence étroite artificielle système décrit au chapitre un) pour construire des systèmes de sécurité numérique sans erreur ni bogue autour de notre infrastructure et de nos armes critiques, puis les protéger davantage derrière un cryptage quantique qui ne peut pas être piraté par une attaque par force brute. 

    Pilule suicide ANI. Créez un système ANI avancé dont le seul but est de rechercher et de détruire les ASI voyous. Ces programmes à but unique serviront de "bouton d'arrêt" qui, en cas de succès, évitera aux gouvernements ou aux militaires d'avoir à désactiver ou à faire exploser des bâtiments qui abritent des ASI.

    Bien sûr, ce ne sont que nos opinions. L'infographie suivante a été créée par Alexeï Turchin, visualisant un document de recherche par Kaj Sotala et Roman V. Yampolskiy, qui résument la liste actuelle des stratégies que les chercheurs en IA envisagent lorsqu'il s'agit de se défendre contre les ASI voyous.

     

    La vraie raison pour laquelle nous avons peur d'une superintelligence artificielle

    Au cours de la vie, nous sommes nombreux à porter un masque qui cache ou réprime nos pulsions, nos croyances et nos peurs plus profondes pour mieux socialiser et collaborer au sein des différents cercles sociaux et professionnels qui régissent nos journées. Mais à certains moments de la vie de chacun, que ce soit temporairement ou définitivement, il se passe quelque chose qui nous permet de briser nos chaînes et d'arracher nos masques.

    Pour certains, cette force intervenante peut être aussi simple que de se défoncer ou de boire trop. Pour d'autres, cela peut provenir du pouvoir acquis via une promotion au travail ou d'une augmentation soudaine de votre statut social grâce à un accomplissement. Et pour quelques chanceux, cela peut provenir du fait de marquer une cargaison d'argent de loterie. Et oui, l'argent, le pouvoir et la drogue peuvent souvent cohabiter. 

    Le fait est que, pour le meilleur ou pour le pire, qui que nous soyons au cœur est amplifié lorsque les restrictions de la vie disparaissent.

    Ceci est ce que la superintelligence artificielle représente pour l'espèce humaine - la capacité de faire fondre les limites de notre intelligence collective pour relever tout défi au niveau de l'espèce qui se présente à nous.

    La vraie question est donc : une fois que le premier ASI nous aura libérés de nos limites, qui allons-nous révéler que nous sommes ?

    Si nous, en tant qu'espèce, agissons pour l'avancement de l'empathie, de la liberté, de l'équité et du bien-être collectif, alors les objectifs vers lesquels nous fixons notre ASI refléteront ces attributs positifs.

    Si nous, en tant qu'espèce, agissons par peur, par méfiance, par accumulation de pouvoir et de ressources, alors l'ASI que nous créons sera aussi sombre que ceux trouvés dans nos pires histoires d'horreur de science-fiction.

    En fin de compte, en tant que société, nous devons devenir de meilleures personnes si nous espérons créer une meilleure IA.

    Série sur l'avenir de l'intelligence artificielle

    L'intelligence artificielle est l'électricité de demain : série P1 sur l'avenir de l'intelligence artificielle

    Comment la première Intelligence Artificielle Générale va changer la société : série Future of Artificial Intelligence P2

    Comment nous allons créer la première série P3 de Superintelligence Artificielle : L'Avenir de l'Intelligence Artificielle

    Une superintelligence artificielle exterminera-t-elle l'humanité ? Série P4 sur l'avenir de l'intelligence artificielle

    Les humains vivront-ils en paix dans un futur dominé par les intelligences artificielles ? : série P6 sur l'avenir de l'intelligence artificielle

    Prochaine mise à jour prévue pour cette prévision

    2023-04-27

    Références prévisionnelles

    Les liens populaires et institutionnels suivants ont été référencés pour cette prévision :

    Comment nous arrivons à la prochaine

    Les liens Quantumrun suivants ont été référencés pour cette prévision :