Alinhamento de IA: combinar metas de inteligência artificial com valores humanos

CRÉDITO DE IMAGEM:
Crédito da imagem
iStock

Alinhamento de IA: combinar metas de inteligência artificial com valores humanos

Alinhamento de IA: combinar metas de inteligência artificial com valores humanos

Texto do subtítulo
Alguns pesquisadores acreditam que medidas devem ser implementadas para garantir que a inteligência artificial não prejudique a sociedade.
    • Autor:
    • Nome do autor
      Previsão Quantumrun
    • 25 de janeiro de 2023

    O alinhamento da inteligência artificial (IA) ocorre quando os objetivos de um sistema de IA correspondem aos valores humanos. Empresas como OpenAI, DeepMind e Anthropic possuem equipes de pesquisadores cujo único foco é estudar proteções para diferentes cenários em que isso pode acontecer.

    Contexto de alinhamento de IA

    De acordo com um estudo de pesquisa da Universidade de Cornell de 2021, vários estudos mostraram que ferramentas ou modelos criados por algoritmos exibem preconceitos provenientes dos dados nos quais foram treinados. Por exemplo, no processamento de linguagem natural (PNL), foram documentados modelos seleccionados de PNL treinados em conjuntos de dados limitados, fazendo previsões com base em estereótipos de género prejudiciais contra as mulheres. Da mesma forma, outros estudos descobriram que algoritmos treinados em conjuntos de dados adulterados resultaram em recomendações racialmente tendenciosas, especialmente no policiamento.

    Existem muitos exemplos em que os sistemas de aprendizagem automática tiveram um desempenho pior para minorias ou grupos que sofrem de múltiplas desvantagens. Em particular, a análise facial automatizada e os diagnósticos de saúde normalmente não funcionam muito bem para mulheres e pessoas de cor. Quando sistemas críticos que deveriam basear-se em factos e lógica em vez de emoções são utilizados em contextos como a atribuição de cuidados de saúde ou educação, podem causar mais danos ao dificultar a identificação do raciocínio por detrás destas recomendações.

    Como resultado, as empresas de tecnologia estão criando equipes de alinhamento de IA para se concentrarem em manter os algoritmos justos e humanos. A investigação é essencial para compreender a direção dos sistemas avançados de IA, bem como os desafios que poderemos enfrentar à medida que as capacidades de IA crescem.

    Impacto disruptivo

    De acordo com Jan Leike, chefe de alinhamento de IA da OpenAI (2021), dado que os sistemas de IA só se tornaram capazes na década de 2010, é compreensível que a maior parte da pesquisa de alinhamento de IA tenha sido baseada em teoria. Quando sistemas de IA imensamente poderosos são alinhados, um dos desafios que os humanos enfrentam é que estas máquinas podem criar soluções que são demasiado complicadas para rever e avaliar se fazem sentido eticamente.

    Leike desenvolveu uma estratégia de modelagem de recompensa recursiva (RRM) para resolver esse problema. Com o RRM, várias IAs “auxiliares” são ensinadas para ajudar um ser humano a avaliar o desempenho de uma IA mais complexa. Ele está otimista quanto à possibilidade de criar algo que chama de “MVP de alinhamento”. Em termos de startup, um MVP (ou produto mínimo viável) é o produto mais simples possível que uma empresa pode construir para testar uma ideia. A esperança é que algum dia a IA corresponda ao desempenho humano na pesquisa da IA ​​e no seu alinhamento com os valores, ao mesmo tempo que é funcional.

    Embora o crescente interesse no alinhamento da IA ​​seja um resultado positivo, muitos analistas da área pensam que grande parte do trabalho de “ética” nos principais laboratórios de IA é apenas relações públicas concebidas para fazer com que as empresas de tecnologia tenham uma boa imagem e evitar publicidade negativa. Esses indivíduos não esperam que as práticas de desenvolvimento ético se tornem uma prioridade para essas empresas tão cedo.

    Estas observações destacam a importância das abordagens interdisciplinares para os esforços de alinhamento de valores, uma vez que esta é uma área relativamente nova de investigação moral e técnica. Diferentes ramos do conhecimento devem fazer parte de uma agenda de investigação inclusiva. Esta iniciativa também aponta para a necessidade de os tecnólogos e os decisores políticos permanecerem conscientes do seu contexto social e das partes interessadas, mesmo à medida que os sistemas de IA se tornam mais avançados.

    Implicações do alinhamento de IA

    Implicações mais amplas do alinhamento da IA ​​podem incluir: 

    • Laboratórios de inteligência artificial contratam diversos conselhos de ética para supervisionar projetos e cumprir as diretrizes éticas de IA. 
    • Governos que criam leis que exigem que as empresas apresentem o seu quadro de IA responsável e como planeiam desenvolver ainda mais os seus projetos de IA.
    • Aumento das controvérsias sobre o uso de algoritmos no recrutamento, vigilância pública e aplicação da lei.
    • Pesquisadores sendo demitidos de grandes laboratórios de IA devido a conflitos de interesse entre ética e objetivos corporativos.
    • Mais pressão para que os governos regulamentem sistemas avançados de IA que são incrivelmente poderosos, mas que podem potencialmente violar os direitos humanos.

    Perguntas para comentar

    • Como podem as empresas ser responsabilizadas pelos sistemas de IA que criam?
    • Quais são os outros perigos potenciais se houver desalinhamento da IA?

    Referências de insights

    Os seguintes links populares e institucionais foram referenciados para esta percepção: