Franken-Algorithms: Algoritmos que se tornaram desonestos

CRÉDITO DE IMAGEM:
Crédito da imagem
iStock

Franken-Algorithms: Algoritmos que se tornaram desonestos

Franken-Algorithms: Algoritmos que se tornaram desonestos

Texto do subtítulo
Com os desenvolvimentos da inteligência artificial, os algoritmos estão evoluindo mais rápido do que os humanos esperavam.
    • Autor:
    • Nome do autor
      Previsão Quantumrun
    • 12 de abril de 2023

    À medida que os algoritmos de aprendizado de máquina (ML) se tornam mais avançados, eles são capazes de aprender e se adaptar a padrões em grandes conjuntos de dados por conta própria. Esse processo, conhecido como "aprendizado autônomo", pode resultar na geração do algoritmo de seu próprio código ou regras para tomar decisões. O problema com isso é que o código gerado pelo algoritmo pode ser difícil ou impossível para os humanos entenderem, dificultando a identificação de vieses. 

    Contexto dos Algoritmos de Franken

    Os algoritmos de Franken referem-se a algoritmos (as regras que os computadores seguem ao processar dados e responder a comandos) que se tornaram tão complexos e entrelaçados que os humanos não conseguem mais decifrá-los. O termo é uma referência à ficção científica de Mary Shelley sobre um "monstro" criado pelo cientista louco Dr. Frankenstein. Embora algoritmos e códigos sejam os blocos de construção da grande tecnologia e tenham permitido ao Facebook e ao Google serem as empresas influentes que são agora, ainda há muito sobre a tecnologia que os humanos não sabem. 

    Quando os programadores criam códigos e os executam por meio de software, o ML permite que os computadores entendam e prevejam padrões. Enquanto a grande tecnologia afirma que os algoritmos são objetivos porque as emoções humanas e a imprevisibilidade não os influenciam, esses algoritmos podem evoluir e escrever suas próprias regras, levando a resultados desastrosos. O código gerado por esses algoritmos costuma ser complexo e opaco, tornando difícil para pesquisadores ou profissionais interpretar as decisões do algoritmo ou identificar quaisquer vieses que possam estar presentes no processo de tomada de decisão do algoritmo. Esse obstáculo pode criar desafios significativos para as empresas que dependem desses algoritmos para tomar decisões, pois podem ser incapazes de entender ou explicar o raciocínio por trás dessas decisões.

    Impacto disruptivo

    Quando os Algoritmos de Franken se tornam desonestos, pode ser uma questão de vida ou morte. Um exemplo foi um acidente em 2018, quando um carro autônomo no Arizona atropelou e matou uma mulher andando de bicicleta. Os algoritmos do carro não conseguiram identificá-la corretamente como humana. Os especialistas ficaram divididos sobre a causa raiz do acidente - o carro foi programado incorretamente e o algoritmo se tornou complexo demais para seu próprio bem? O que os programadores podem concordar, no entanto, é que precisa haver um sistema de supervisão para empresas de software – um código de ética. 

    No entanto, esse código de ética vem com alguma resistência das grandes empresas de tecnologia porque elas estão no negócio de vender dados e algoritmos e não podem se dar ao luxo de serem regulamentadas ou obrigadas a serem transparentes. Além disso, um desenvolvimento recente que preocupa os funcionários de grandes empresas de tecnologia é o uso crescente de algoritmos nas forças armadas, como a parceria do Google com o Departamento de Defesa dos EUA para incorporar algoritmos em tecnologia militar, como drones autônomos. Este aplicativo levou alguns funcionários a se demitirem e especialistas expressaram preocupações de que os algoritmos ainda são muito imprevisíveis para serem usados ​​como máquinas de matar. 

    Outra preocupação é que os algoritmos de Franken podem perpetuar e até mesmo amplificar vieses devido aos conjuntos de dados nos quais são treinados. Esse processo pode levar a vários problemas sociais, incluindo discriminação, desigualdade e prisões injustas. Devido a esses riscos elevados, muitas empresas de tecnologia estão começando a publicar suas diretrizes éticas de IA para serem transparentes sobre como desenvolvem, usam e monitoram seus algoritmos.

    Implicações mais amplas para algoritmos de Franken

    Implicações potenciais para algoritmos de Franken podem incluir:

    • Desenvolvimento de sistemas autônomos que podem tomar decisões e realizar ações sem supervisão humana, levantando preocupações sobre responsabilidade e segurança. No entanto, esses algoritmos podem reduzir os custos de desenvolvimento de software e robótica que podem automatizar o trabalho humano na maioria dos setores. 
    • Mais escrutínio sobre como os algoritmos podem automatizar a tecnologia militar e dar suporte a armas e veículos autônomos.
    • Aumento da pressão para que governos e líderes do setor implementem um código de ética e regulamentos de algoritmos.
    • Algoritmos de Franken impactando desproporcionalmente certos grupos demográficos, como comunidades de baixa renda ou populações minoritárias.
    • Os algoritmos de Franken podem perpetuar e ampliar a discriminação e o viés na tomada de decisões, como contratações e empréstimos.
    • Esses algoritmos estão sendo usados ​​por cibercriminosos para monitorar e explorar deficiências em sistemas, principalmente em instituições financeiras.
    • Atores políticos usando algoritmos desonestos para automatizar campanhas de marketing usando sistemas de IA generativos de maneiras que podem influenciar a opinião pública e influenciar as eleições.

    Questões a considerar

    • Como você acha que os algoritmos se desenvolverão no futuro?
    • O que governos e empresas podem fazer para controlar os algoritmos de Franken?

    Referências de insights

    Os seguintes links populares e institucionais foram referenciados para esta percepção: