Franken-Algorithms: Algoritmos convertidos en canallas

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

Franken-Algorithms: Algoritmos convertidos en canallas

Franken-Algorithms: Algoritmos convertidos en canallas

Texto do subtítulo
Cos desenvolvementos da intelixencia artificial, os algoritmos están evolucionando máis rápido do que os humanos esperaban.
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Abril 12, 2023

    A medida que os algoritmos de aprendizaxe automática (ML) se van facendo máis avanzados, poden aprender e adaptarse aos patróns de grandes conxuntos de datos por si mesmos. Este proceso, coñecido como "aprendizaxe autónoma", pode dar lugar a que o algoritmo xere o seu propio código ou regras para tomar decisións. O problema con isto é que o código xerado polo algoritmo pode ser difícil ou imposible de entender para os humanos, polo que é difícil identificar os prexuízos. 

    Contexto de Franken-Algorithms

    Franken-Algorithms refírense a algoritmos (as regras que seguen os ordenadores cando procesan datos e responden a ordes) que se fixeron tan complexos e entrelazados que os humanos xa non poden descifralos. O termo é un guiño á ciencia ficción de Mary Shelley sobre un "monstro" creado polo científico tolo Dr. Frankenstein. Aínda que os algoritmos e códigos son os bloques de construción da gran tecnoloxía e permitiron que Facebook e Google sexan as empresas influentes que son agora, aínda hai moito sobre a tecnoloxía que os humanos non coñecen. 

    Cando os programadores constrúen códigos e execútanos a través de software, o ML permite aos ordenadores comprender e prever patróns. Aínda que as grandes tecnoloxías afirman que os algoritmos son obxectivos porque as emocións humanas e a imprevisibilidade non inflúen neles, estes algoritmos poden evolucionar e escribir as súas propias regras, o que leva a resultados desastrosos. O código xerado por estes algoritmos adoita ser complexo e opaco, o que dificulta aos investigadores ou aos profesionais interpretar as decisións do algoritmo ou identificar os prexuízos que poidan estar presentes no proceso de toma de decisións do algoritmo. Este obstáculo pode xerar retos significativos para as empresas que dependen destes algoritmos para tomar decisións, xa que poden ser incapaces de entender ou explicar o razoamento detrás desas decisións.

    Impacto perturbador

    Cando os algoritmos de Franken se fan maliciosos, pode ser unha cuestión de vida ou morte. Un exemplo foi un accidente en 2018 cando un coche autónomo en Arizona bateu e matou a unha muller que andaba en bicicleta. Os algoritmos do coche non puideron identificala correctamente como humana. Os expertos estaban desgarrados sobre a causa raíz do accidente: o coche estaba mal programado e o algoritmo volveuse demasiado complexo para o seu propio ben? No que os programadores poden estar de acordo, con todo, é que debe haber un sistema de supervisión para as empresas de software: un código de ética. 

    Non obstante, este código de ética vén con algún rexeitamento das grandes tecnoloxías porque están no negocio de vender datos e algoritmos e non poden permitirse o luxo de ser regulados ou obrigados a ser transparentes. Ademais, un desenvolvemento recente que causou preocupación aos grandes empregados tecnolóxicos é o uso crecente de algoritmos dentro do exército, como a asociación de Google co Departamento de Defensa dos Estados Unidos para incorporar algoritmos na tecnoloxía militar, como drons autónomos. Esta aplicación provocou que algúns empregados renunciasen e os expertos expresasen a súa preocupación de que os algoritmos aínda son demasiado imprevisibles para ser usados ​​como máquinas de matar. 

    Outra preocupación é que os algoritmos de Franken poden perpetuar e mesmo amplificar os prexuízos debido aos conxuntos de datos nos que se adestran. Este proceso pode levar a varios problemas sociais, incluíndo discriminación, desigualdade e arrestos ilícitos. Debido a estes riscos elevados, moitas empresas tecnolóxicas están comezando a publicar as súas directrices éticas de IA para ser transparentes sobre como desenvolven, usan e supervisan os seus algoritmos.

    Implicacións máis amplas para os algoritmos de Franken

    As posibles implicacións para os algoritmos de Franken poden incluír:

    • Desenvolvemento de sistemas autónomos que poidan tomar decisións e tomar accións sen supervisión humana, suscitando preocupacións sobre a responsabilidade e a seguridade. Non obstante, tales algoritmos poden reducir os custos de desenvolvemento de software e robótica que poden automatizar o traballo humano na maioría das industrias. 
    • Máis escrutinio sobre como os algoritmos poden automatizar a tecnoloxía militar e apoiar armas e vehículos autónomos.
    • Aumento da presión para que os gobernos e os líderes da industria implementen un código de algoritmos de ética e regulamentos.
    • Algoritmos de Franken que afectan de forma desproporcionada a determinados grupos demográficos, como comunidades de baixos ingresos ou poboacións minoritarias.
    • Os algoritmos de Franken poderían perpetuar e amplificar a discriminación e o sesgo na toma de decisións, como as decisións de contratación e préstamo.
    • Estes algoritmos son utilizados polos ciberdelincuentes para supervisar e explotar as debilidades dos sistemas, especialmente nas entidades financeiras.
    • Actores políticos que usan algoritmos deshonestos para automatizar campañas de mercadotecnia mediante sistemas xerativos de intelixencia artificial de maneira que poidan influír na opinión pública e influir nas eleccións.

    Preguntas a ter en conta

    • Como cres que se desenvolverán os algoritmos no futuro?
    • Que poden facer os gobernos e as empresas para controlar os algoritmos de Franken?

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión: