LaMDA : le modèle linguistique de Google améliore les conversations entre l'homme et la machine

CRÉDIT D'IMAGE:
Crédit image
iStock

LaMDA : le modèle linguistique de Google améliore les conversations entre l'homme et la machine

LaMDA : le modèle linguistique de Google améliore les conversations entre l'homme et la machine

Texte du sous-titre
Le modèle de langage pour les applications de dialogue (LaMDA) pourrait permettre à l'intelligence artificielle de paraître plus humaine.
    • Auteur :
    • Nom de l'auteur
      Prévision quantique
    • 3 janvier 2023

    Le LaMDA de Google vise à simuler des conversations humaines qui sont organiques et significatives. Pour ce faire, les ingénieurs de la firme ont développé une méthodologie de formation pour synthétiser les informations au lieu de suivre des algorithmes. Cette fonctionnalité permet à l'outil de comprendre plus facilement le contexte et de réagir en conséquence.

    Contexte LaMDA

    La nature imprévisible et parfois non structurée de la parole humaine présente un véritable défi pour les chatbots et les assistants virtuels. Parce que les modèles de langage traditionnels utilisent des informations préprogrammées pour engager des conversations humaines, ils ont tendance à atteindre des impasses soudaines lorsque leurs données de formation ne peuvent plus comprendre le raisonnement et l'intention humains. Google essaie de changer cette progression contre nature à travers LaMDA. Le modèle de langage est construit sur Transformer, le système de réseau neuronal open source de Google Research. Cette architecture génère un modèle qui peut être formé pour interpréter de nombreux mots (une phrase ou un paragraphe, par exemple), se concentrer sur la façon dont ces termes sont liés, puis prédire les mots qui, selon lui, suivront.

    Lors de la conférence annuelle des développeurs (I/O) de Google en 2022, le PDG Sundar Pichai a démontré les capacités améliorées de LaMDA 2.0. La société a publié un kit de test de développeur appelé l'application AI Test Kitchen. Dans cette application, trois démos présentent les capacités de LaMDA. 

    La première fonctionnalité était Imagine It, où LaMDA est invité à décrire ou « imaginer » différents types de scénarios. Par exemple, un utilisateur peut demander au modèle d'expliquer les images, les sons et la sensation d'être dans la fosse des Mariannes. 
    La démo suivante était Talk About It, où LaMDA s'engage dans une conversation autour d'un sujet principal. Peu importe à quel point l'utilisateur introduit des idées hors sujet, le modèle essaie toujours de ramener la conversation au sujet d'origine. 
    Enfin, il y avait List It, où LaMDA décompose un objectif principal en sous-tâches pertinentes. Par exemple, un utilisateur peut demander des conseils sur la façon de construire un potager, et le modèle suggère différentes mini-tâches que l'utilisateur peut commencer à faire, comme lister les légumes qu'il veut planter et savoir où acheter les meilleures graines. 

    Impact perturbateur

    Selon l'article de Google sur LaMDA, il a conçu l'outil pour adhérer aux principes de l'IA de l'entreprise. Bien que le langage soit un outil incroyable, il peut parfois être abusé. Les modèles qui apprennent du langage peuvent finir par poursuivre cet abus en apprenant et en répétant des préjugés, des discours haineux ou de fausses informations. Même lorsque le modèle n'est formé que sur des données précises, il peut toujours être modifié à des fins contraires à l'éthique. La solution de Google consiste à créer des ressources open source qui invitent d'autres chercheurs à analyser les données de formation de LaMDA. 

    Les niveaux croissants de sensibilité, de spécificité et d'intérêt de l'outil (SSI, évalué par des évaluateurs humains) créent des voies plus utiles pour les assistants virtuels et les chatbots. Au lieu de simplement obéir aux ordres, ces bots peuvent bientôt faire des conversations ouvertes, suggérer des solutions alternatives, demander des clarifications et simplement être des causeurs engageants. 

    Ces caractéristiques les rendent plus adaptés aux conversations avec les clients. Un exemple peut inclure des guides touristiques virtuels qui seraient en mesure de présenter des informations contextuelles ou historiques de manière plus cohérente, en fonction des questions posées par les touristes. Les chatbots d'entreprise seraient capables de gérer toutes les préoccupations des clients, quelle que soit leur complexité. Les agences gouvernementales peuvent créer des guides d'IA qui peuvent aider les citoyens à utiliser les services publics. Bien que LaMDA ait encore un long chemin à parcourir avant de pouvoir atteindre ce niveau d'utilité commerciale, ses progrès continus sont prometteurs pour le domaine du traitement du langage naturel (TAL) en général. 

    Implications de LaMDA

    Les implications plus larges de LaMDA peuvent inclure : 

    • Les chatbots clients et les assistants numériques continuent de s'améliorer d'une année sur l'autre. Cette tendance peut amener les gens à croire qu'ils parlent à un autre être humain en ligne ou par téléphone.
    • LaMDA est continuellement formé pour identifier les nuances dans les accents, les dialectes, l'utilisation culturelle des mots, l'argot et d'autres modèles de discours.
    • De plus en plus de clients demandent une divulgation et une transparence complètes chaque fois qu'un chatbot les engage par téléphone.
    • Les fraudeurs qui tentent d'utiliser des chatbots intelligents pour inciter les personnes/victimes à divulguer des informations sensibles en imitant des voix ou des modèles de discours.
    • Le risque croissant de biais d'algorithme en raison des données de formation écrites par l'homme, ce qui peut renforcer le racisme et la discrimination.

    Questions à commenter

    • Comment LaMDA ou d'autres causeurs de l'IA pourraient-ils améliorer les services publics ?
    • De quelles autres manières un meilleur causeur IA peut-il vous faciliter la vie ?

    Références Insight

    Les liens populaires et institutionnels suivants ont été référencés pour cet aperçu :