Alignement de l'IA : faire correspondre les objectifs de l'intelligence artificielle aux valeurs humaines

CRÉDIT D'IMAGE:
Crédit image
iStock

Alignement de l'IA : faire correspondre les objectifs de l'intelligence artificielle aux valeurs humaines

Alignement de l'IA : faire correspondre les objectifs de l'intelligence artificielle aux valeurs humaines

Texte du sous-titre
Certains chercheurs pensent que des mesures devraient être mises en place pour s'assurer que l'intelligence artificielle ne nuit pas à la société.
    • Auteur :
    • Nom de l'auteur
      Prévision quantique
    • 25 janvier 2023

    L'alignement de l'intelligence artificielle (IA) se produit lorsque les objectifs d'un système d'IA correspondent aux valeurs humaines. Des entreprises comme OpenAI, DeepMind et Anthropic ont des équipes de chercheurs dont le seul objectif est d'étudier les garde-fous pour différents scénarios dans lesquels cela pourrait se produire.

    Contexte d'alignement de l'IA

    Selon une étude de recherche de l'Université de Cornell de 2021, plusieurs études ont montré que les outils ou modèles créés par des algorithmes affichent des biais provenant des données sur lesquelles ils ont été formés. Par exemple, dans le traitement du langage naturel (PNL), certains modèles de PNL entraînés sur des ensembles de données limités ont été documentés en faisant des prédictions basées sur des stéréotypes de genre préjudiciables aux femmes. De même, d'autres études ont révélé que les algorithmes entraînés sur un ensemble de données falsifié entraînaient des recommandations biaisées sur le plan racial, en particulier dans les services de police.

    Il existe de nombreux exemples dans lesquels les systèmes d'apprentissage automatique ont fait moins bien pour les minorités ou les groupes souffrant de multiples désavantages. En particulier, l'analyse faciale automatisée et les diagnostics médicaux ne fonctionnent généralement pas très bien pour les femmes et les personnes de couleur. Lorsque des systèmes critiques qui devraient être basés sur des faits et la logique plutôt que sur l'émotion sont utilisés dans des contextes tels que l'attribution des soins de santé ou de l'éducation, ils peuvent faire plus de dégâts en rendant plus difficile l'identification du raisonnement derrière ces recommandations.

    En conséquence, les entreprises technologiques créent des équipes d'alignement de l'IA pour se concentrer sur le maintien de l'équité et de l'humanité des algorithmes. La recherche est essentielle pour comprendre la direction des systèmes d'IA avancés, ainsi que les défis auxquels nous pourrions être confrontés à mesure que les capacités de l'IA se développent.

    Impact perturbateur

    Selon Jan Leike, responsable de l'alignement de l'IA chez OpenAI (2021), étant donné que les systèmes d'IA ne sont devenus capables que dans les années 2010, il est compréhensible que la plupart des recherches sur l'alignement de l'IA aient été lourdes en théorie. Lorsque des systèmes d'IA extrêmement puissants sont alignés, l'un des défis auxquels les humains sont confrontés est que ces machines pourraient créer des solutions trop compliquées à examiner et à évaluer si elles ont un sens sur le plan éthique.

    Leike a conçu une stratégie de modélisation de récompense récursive (RRM) pour résoudre ce problème. Avec RRM, plusieurs IA "assistantes" sont enseignées pour aider un humain à évaluer les performances d'une IA plus complexe. Il est optimiste quant à la possibilité de créer quelque chose qu'il appelle un "MVP d'alignement". En termes de démarrage, un MVP (ou produit minimum viable) est le produit le plus simple possible qu'une entreprise puisse créer pour tester une idée. L'espoir est qu'un jour, l'IA corresponde à la performance humaine dans la recherche sur l'IA et son alignement sur les valeurs tout en étant fonctionnelle.

    Bien que l'intérêt croissant pour l'alignement de l'IA soit un net positif, de nombreux analystes dans le domaine pensent qu'une grande partie du travail "d'éthique" dans les principaux laboratoires d'IA n'est que des relations publiques conçues pour donner aux entreprises technologiques une belle apparence et éviter la publicité négative. Ces personnes ne s'attendent pas à ce que les pratiques de développement éthique deviennent de sitôt une priorité pour ces entreprises.

    Ces observations soulignent l'importance des approches interdisciplinaires pour les efforts d'alignement des valeurs, car il s'agit d'un domaine relativement nouveau de recherche morale et technique. Différentes branches de la connaissance devraient faire partie d'un programme de recherche inclusif. Cette initiative souligne également la nécessité pour les technologues et les décideurs de rester conscients de leur contexte social et de leurs parties prenantes, même à mesure que les systèmes d'IA deviennent plus avancés.

    Implications de l'alignement de l'IA

    Les implications plus larges de l'alignement de l'IA peuvent inclure : 

    • Les laboratoires d'intelligence artificielle embauchent divers comités d'éthique pour superviser les projets et respecter les directives éthiques de l'IA. 
    • Les gouvernements créent des lois qui obligent les entreprises à soumettre leur cadre d'IA responsable et comment elles prévoient de développer davantage leurs projets d'IA.
    • Augmentation des controverses sur l'utilisation d'algorithmes dans le recrutement, la surveillance publique et l'application de la loi.
    • Des chercheurs sont licenciés de grands laboratoires d'IA en raison de conflits d'intérêts entre l'éthique et les objectifs de l'entreprise.
    • Plus de pression pour que les gouvernements réglementent les systèmes d'IA avancés qui sont à la fois incroyablement puissants mais peuvent potentiellement violer les droits de l'homme.

    Questions à commenter

    • Comment rendre les entreprises responsables des systèmes d'IA qu'elles créent ?
    • Quels sont les autres dangers potentiels en cas de désalignement de l'IA ?

    Références Insight

    Les liens populaires et institutionnels suivants ont été référencés pour cet aperçu :