Aprendizagem por reforço com feedback humano: ajuste fino da IA

CRÉDITO DE IMAGEM:
Crédito da imagem
iStock

Aprendizagem por reforço com feedback humano: ajuste fino da IA

Aprendizagem por reforço com feedback humano: ajuste fino da IA

Texto do subtítulo
A aprendizagem por reforço com feedback humano (RLHF) está preenchendo a lacuna entre a tecnologia e os valores humanos.
    • Autor:
    • Nome do autor
      Previsão Quantumrun
    • 7 de março de 2024

    Resumo do insight

    A aprendizagem por reforço a partir de feedback humano (RLHF) é um método de treinamento de inteligência artificial (IA) que ajusta modelos usando informações humanas para alinhá-los melhor com as intenções humanas. Esta abordagem envolve a criação de um modelo de recompensa a partir do feedback humano para melhorar o desempenho de modelos pré-treinados. Embora promissor para uma IA responsável, o RLHF enfrenta potenciais imprecisões e a necessidade de diretrizes éticas.

    Aprendizagem por reforço com contexto de feedback humano

    A aprendizagem por reforço a partir de feedback humano (RLHF) é um método para treinar modelos de IA que visa alinhá-los mais estreitamente com as intenções e preferências humanas. RLHF combina aprendizado por reforço com contribuição humana para ajustar modelos de aprendizado de máquina (ML). Esta abordagem é distinta da aprendizagem supervisionada e não supervisionada e está ganhando atenção significativa, especialmente depois que a OpenAI a utilizou para treinar modelos como InstructGPT e ChatGPT.

    O conceito central por trás do RLHF envolve três fases principais. Primeiro, um modelo pré-treinado é selecionado como modelo principal, o que é essencial para modelos de linguagem devido aos vastos dados necessários para o treinamento. Em segundo lugar, é criado um modelo de recompensa separado, que é treinado usando informações humanas (os resultados gerados pelo modelo são apresentados aos humanos e solicitados a classificá-los com base na qualidade). Essas informações de classificação são transformadas em um sistema de pontuação, que o modelo de recompensa utiliza para avaliar o desempenho do modelo primário. Na terceira fase, o modelo de recompensa avalia os resultados do modelo primário e fornece uma pontuação de qualidade. O modelo principal então usa esse feedback para melhorar seu desempenho futuro.

    Embora o RLHF seja promissor na melhoria do alinhamento da IA ​​com a intenção humana, as respostas do modelo ainda podem ser imprecisas ou tóxicas, mesmo após o ajuste fino. Além disso, o envolvimento humano é relativamente lento e caro em comparação com a aprendizagem não supervisionada. As divergências entre avaliadores humanos e potenciais preconceitos nos modelos de recompensa também são preocupações significativas. No entanto, apesar destas limitações, mais investigação e desenvolvimento neste campo provavelmente tornarão os modelos de IA mais seguros, mais fiáveis ​​e mais benéficos para os utilizadores. 

    Impacto disruptivo

    Uma implicação significativa da RLFH é o seu potencial para promover sistemas de IA mais responsáveis ​​e éticos. Como o RLHF permite que os modelos se alinhem melhor com os valores e intenções humanos, pode mitigar os riscos associados ao conteúdo gerado pela IA que pode ser prejudicial, tendencioso ou impreciso. Os governos e os organismos reguladores podem necessitar de estabelecer diretrizes e padrões para a implantação de RLHF em sistemas de IA para garantir a sua utilização ética.

    Para as empresas, o RLHF apresenta uma oportunidade valiosa para melhorar as experiências dos clientes e otimizar as operações. As empresas podem usar o RLHF para desenvolver produtos e serviços baseados em IA que melhor compreendam e atendam às preferências dos clientes. Por exemplo, recomendações personalizadas de produtos e campanhas de marketing personalizadas podem se tornar mais precisas, levando, em última análise, a uma maior satisfação do cliente e a taxas de conversão mais altas. Além disso, o RLHF também pode agilizar processos internos, tais como a gestão da cadeia de abastecimento e a atribuição de recursos, otimizando a tomada de decisões com base em dados em tempo real e no feedback dos utilizadores.

    Na área da saúde, as recomendações de diagnóstico e tratamento baseadas em IA podem tornar-se mais fiáveis ​​e centradas no paciente. Além disso, as experiências de aprendizagem personalizadas podem ser ainda mais refinadas na educação, garantindo que os alunos recebam apoio personalizado para maximizar o seu potencial académico. Os governos poderão ter de investir em programas de educação e formação em IA para dotar a força de trabalho com as competências necessárias para aproveitar os benefícios da RLHF. 

    Implicações da aprendizagem por reforço com feedback humano

    Implicações mais amplas do RLHF podem incluir: 

    • Maior fidelidade e envolvimento do cliente, à medida que produtos e serviços baseados em IA se tornam mais sintonizados com as preferências individuais.
    • A criação de experiências educacionais mais personalizadas, ajudando os alunos a atingir todo o seu potencial e diminuindo as lacunas de desempenho acadêmico.
    • O mercado de trabalho está a passar por uma transformação à medida que a automação impulsionada pela RLHF simplifica as tarefas rotineiras, criando potencialmente oportunidades para os trabalhadores se concentrarem em funções mais criativas e complexas.
    • Melhor processamento de linguagem natural através de RLHF, levando a recursos de acessibilidade aprimorados, beneficiando indivíduos com deficiência e promovendo maior inclusão na comunicação digital.
    • A implantação de RLHF na monitorização ambiental e gestão de recursos permitindo esforços de conservação mais eficientes, reduzindo desperdícios e apoiando objetivos de sustentabilidade.
    • RLHF em sistemas de recomendação e criação de conteúdo resultando em um cenário de mídia mais personalizado, oferecendo aos usuários conteúdos alinhados aos seus interesses e valores.
    • A democratização da IA ​​através do RLHF, capacitando pequenas empresas e startups para aproveitarem os benefícios da tecnologia de IA, promovendo a inovação e a concorrência na indústria tecnológica.

    Questões a considerar

    • Como poderá o RLHF impactar a forma como interagimos com a tecnologia na nossa vida quotidiana?
    • Como poderia o RLHF revolucionar outras indústrias?

    Referências de insights

    Os seguintes links populares e institucionais foram referenciados para esta percepção: