Franken-Algorithms : des algorithmes devenus voyous

CRÉDIT D'IMAGE:
Crédit image
iStock

Franken-Algorithms : des algorithmes devenus voyous

Franken-Algorithms : des algorithmes devenus voyous

Texte du sous-titre
Avec les développements de l'intelligence artificielle, les algorithmes évoluent plus rapidement que ne le prévoyaient les humains.
    • Auteur :
    • Nom de l'auteur
      Prévision quantique
    • Le 12 avril 2023

    À mesure que les algorithmes d'apprentissage automatique (ML) deviennent plus avancés, ils sont capables d'apprendre et de s'adapter par eux-mêmes aux modèles de grands ensembles de données. Ce processus, appelé « apprentissage autonome », peut amener l'algorithme à générer son propre code ou ses propres règles pour prendre des décisions. Le problème avec cela est que le code généré par l'algorithme peut être difficile ou impossible à comprendre pour les humains, ce qui rend difficile la détection des biais. 

    Contexte des algorithmes de Franken

    Les algorithmes de Franken font référence à des algorithmes (les règles que les ordinateurs suivent lorsqu'ils traitent des données et répondent à des commandes) qui sont devenus si complexes et entrelacés que les humains ne peuvent plus les déchiffrer. Le terme est un clin d'œil à la science-fiction de Mary Shelley sur un "monstre" créé par le savant fou Dr Frankenstein. Alors que les algorithmes et les codes sont les éléments constitutifs de la grande technologie et ont permis à Facebook et Google d'être les entreprises influentes qu'ils sont aujourd'hui, il y a encore tellement de choses sur la technologie que les humains ne connaissent pas. 

    Lorsque les programmeurs créent des codes et les exécutent via des logiciels, ML permet aux ordinateurs de comprendre et de prédire des modèles. Alors que la grande technologie prétend que les algorithmes sont objectifs parce que les émotions humaines et l'imprévisibilité ne les influencent pas, ces algorithmes peuvent évoluer et écrire leurs propres règles, conduisant à des résultats désastreux. Le code généré par ces algorithmes est souvent complexe et opaque, ce qui rend difficile pour les chercheurs ou les praticiens d'interpréter les décisions de l'algorithme ou d'identifier les biais qui peuvent être présents dans le processus de prise de décision de l'algorithme. Ce barrage routier peut créer des défis importants pour les entreprises qui s'appuient sur ces algorithmes pour prendre des décisions, car elles peuvent être incapables de comprendre ou d'expliquer le raisonnement derrière ces décisions.

    Impact perturbateur

    Lorsque Franken-Algorithms devient voyou, cela peut être une question de vie ou de mort. Un exemple était un accident en 2018 lorsqu'une voiture autonome en Arizona a heurté et tué une femme à vélo. Les algorithmes de la voiture n'ont pas été en mesure de l'identifier correctement en tant qu'être humain. Les experts étaient déchirés sur la cause profonde de l'accident : la voiture était-elle mal programmée et l'algorithme est-il devenu trop complexe pour son propre bien ? Ce sur quoi les programmeurs peuvent s'entendre, cependant, c'est qu'il doit y avoir un système de surveillance pour les éditeurs de logiciels - un code d'éthique. 

    Cependant, ce code d'éthique s'accompagne d'un certain recul de la part des grandes technologies, car elles vendent des données et des algorithmes et ne peuvent pas se permettre d'être réglementées ou tenues d'être transparentes. De plus, un développement récent qui inquiète les employés des grandes technologies est l'utilisation croissante d'algorithmes au sein de l'armée, comme le partenariat de Google avec le département américain de la Défense pour incorporer des algorithmes dans la technologie militaire, comme les drones autonomes. Cette application a conduit certains employés à démissionner et des experts s'inquiètent du fait que les algorithmes sont encore trop imprévisibles pour être utilisés comme des machines à tuer. 

    Une autre préoccupation est que les algorithmes de Franken peuvent perpétuer et même amplifier les biais en raison des ensembles de données sur lesquels ils sont formés. Ce processus peut entraîner divers problèmes de société, notamment la discrimination, l'inégalité et les arrestations injustifiées. En raison de ces risques accrus, de nombreuses entreprises technologiques commencent à publier leurs directives éthiques sur l'IA afin d'être transparentes sur la manière dont elles développent, utilisent et surveillent leurs algorithmes.

    Implications plus larges pour les algorithmes de Franken

    Les implications potentielles pour Franken-Algorithms peuvent inclure :

    • Développement de systèmes autonomes capables de prendre des décisions et d'entreprendre des actions sans surveillance humaine, ce qui soulève des préoccupations en matière de responsabilité et de sécurité. Cependant, de tels algorithmes peuvent réduire les coûts de développement de logiciels et de robotique capables d'automatiser le travail humain dans la plupart des industries. 
    • Un examen plus approfondi de la manière dont les algorithmes peuvent automatiser la technologie militaire et prendre en charge les armes et les véhicules autonomes.
    • Pression accrue sur les gouvernements et les leaders de l'industrie pour mettre en œuvre un code d'éthique et de réglementation sur les algorithmes.
    • Les algorithmes de Franken ont un impact disproportionné sur certains groupes démographiques, tels que les communautés à faible revenu ou les populations minoritaires.
    • Les algorithmes de Franken pourraient perpétuer et amplifier la discrimination et les préjugés dans la prise de décision, comme les décisions d'embauche et de prêt.
    • Ces algorithmes sont utilisés par les cybercriminels pour surveiller et exploiter les faiblesses des systèmes, en particulier dans les institutions financières.
    • Les acteurs politiques utilisent des algorithmes malveillants pour automatiser les campagnes de marketing à l'aide de systèmes d'IA génératifs de manière à influencer l'opinion publique et influencer les élections.

    Questions à considérer

    • Comment pensez-vous que les algorithmes vont encore se développer à l'avenir ?
    • Que peuvent faire les gouvernements et les entreprises pour contrôler les algorithmes de Franken ?

    Références Insight

    Les liens populaires et institutionnels suivants ont été référencés pour cet aperçu :