لامدا: نموذج لغة Google يرفع مستوى المحادثات بين الإنسان والآلة

رصيد الصورة:
الصورة الائتمان
ستوك

لامدا: نموذج لغة Google يرفع مستوى المحادثات بين الإنسان والآلة

لامدا: نموذج لغة Google يرفع مستوى المحادثات بين الإنسان والآلة

نص عنوان فرعي
قد يُمكِّن النموذج اللغوي لتطبيقات الحوار (LaMDA) الذكاء الاصطناعي من أن يبدو أكثر شبهاً بالإنسان.
    • كاتب:
    • اسم المؤلف
      البصيرة الكمومية
    • ٣ فبراير ٢٠٢٤

    يهدف LaMDA من Google إلى محاكاة المحادثات البشرية العضوية وذات المغزى. للقيام بذلك ، طور مهندسو الشركة منهجية تدريب لتجميع المعلومات بدلاً من اتباع الخوارزميات. تتيح هذه الميزة للأداة فهم السياق بسهولة أكبر والتفاعل وفقًا لذلك.

    سياق LaMDA

    تمثل طبيعة الكلام البشري التي لا يمكن التنبؤ بها وغير المنظمة في بعض الأحيان تحديًا حقيقيًا لروبوتات المحادثة والمساعدين الافتراضيين. نظرًا لأن نماذج اللغة التقليدية تستخدم معلومات مبرمجة مسبقًا للانخراط في محادثات بشرية ، فإنها تميل إلى الوصول إلى طرق مسدودة مفاجئة عندما لا تتمكن بيانات التدريب الخاصة بهم من فهم المنطق البشري والنية. تحاول Google تغيير هذا التقدم غير الطبيعي من خلال LaMDA. تم بناء نموذج اللغة على Transformer ، وهو نظام شبكة عصبية مفتوح المصدر لأبحاث Google. تولد هذه البنية نموذجًا يمكن تدريبه على تفسير العديد من الكلمات (جملة أو فقرة ، على سبيل المثال) ، والتركيز على كيفية ارتباط هذه المصطلحات ، ثم التنبؤ بالكلمات التي تعتقد أنها ستتبعها.

    خلال مؤتمر مطوري Google السنوي (I / O) لعام 2022 ، أظهر الرئيس التنفيذي سوندار بيتشاي القدرات المحسّنة لـ LaMDA 2.0. أصدرت الشركة مجموعة أدوات اختبار للمطورين تسمى تطبيق AI Test Kitchen. في هذا التطبيق ، تعرض ثلاثة عروض توضيحية قدرات LaMDA. 

    كانت الميزة الأولى Imagine It ، حيث طُلب من LaMDA أن يصف أو "تخيل" أنواعًا مختلفة من السيناريوهات. على سبيل المثال ، يمكن للمستخدم أن يطلب من النموذج شرح المشاهد والأصوات والشعور بوجودك في خندق ماريانا. 
    العرض التوضيحي التالي كان Talk About It ، حيث يشارك LaMDA في محادثة حول موضوع رئيسي واحد. بغض النظر عن مقدار تقديم المستخدم لأفكار خارج الموضوع ، يحاول النموذج دائمًا توجيه المحادثة إلى الموضوع الأصلي. 
    أخيرًا ، كان هناك List It ، حيث يقسم LaMDA هدفًا أساسيًا واحدًا إلى مهام فرعية ذات صلة. على سبيل المثال ، يمكن للمستخدم أن يسأل نصائح حول كيفية بناء حديقة نباتية ، ويقترح النموذج مهامًا صغيرة مختلفة يمكن للمستخدم البدء في القيام بها ، مثل سرد الخضروات التي يريدون زراعتها ومعرفة مكان شراء أفضل البذور. 

    التأثير التخريبي

    وفقًا لمقال Google حول LaMDA ، فقد صممت الأداة للالتزام بمبادئ الذكاء الاصطناعي الخاصة بالشركة. على الرغم من أن اللغة أداة رائعة ، إلا أنه يمكن أحيانًا إساءة استخدامها. يمكن أن تنتهي النماذج التي تتعلم من اللغة باستمرار هذا الإساءة من خلال تعلم وتكرار التحيزات أو الكلام البغيض أو المعلومات الخاطئة. حتى عندما يتم تدريب النموذج على بيانات دقيقة فقط ، فلا يزال من الممكن تعديله لأغراض غير أخلاقية. يتمثل حل Google في بناء موارد مفتوحة المصدر تدعو باحثين آخرين لتحليل بيانات تدريب LaMDA. 

    تخلق المستويات المتزايدة للأداة من الحساسية والخصوصية والمثيرة للاهتمام (SSI ، التي تم تقييمها من قبل المقيمين البشريين) طرقًا أكثر فائدة للمساعدين الظاهريين وروبوتات الدردشة. بدلاً من مجرد إطاعة الأوامر ، يمكن لهذه الروبوتات إجراء محادثات مفتوحة قريبًا ، واقتراح حلول بديلة ، وطلب توضيحات ، وإشراك المتحدثين بشكل عام. 

    هذه الخصائص تجعلها أكثر ملاءمة للمحادثات التي تواجه العميل. قد يتضمن أحد الأمثلة المرشدين السياحيين الافتراضيين الذين سيكونون قادرين على تقديم معلومات أساسية أو تاريخية بشكل أكثر تماسكًا ، اعتمادًا على الأسئلة التي يطرحها السائحون. ستكون روبوتات الدردشة التجارية قادرة على التعامل مع جميع مخاوف العملاء ، بغض النظر عن التعقيدات. يمكن للوكالات الحكومية إنشاء أدلة ذكاء اصطناعي يمكنها مساعدة المواطنين في الاستفادة من الخدمات العامة. بينما لا يزال أمام LaMDA طريق طويل قبل أن تصل إلى هذا المستوى التجاري من الفائدة ، فإن تقدمها المستمر يعد واعدًا في مجال معالجة اللغة الطبيعية (NLP) بشكل عام. 

    الآثار المترتبة على لامدا

    قد تشمل الآثار الأوسع لـ LaMDA ما يلي: 

    • تواصل روبوتات المحادثة للعملاء والمساعدين الرقميين التحسن عامًا بعد عام. قد يقود هذا الاتجاه الناس إلى الاعتقاد بأنهم يتحدثون إلى إنسان آخر عبر الإنترنت أو عبر الهاتف.
    • يتم تدريب LaMDA باستمرار على تحديد الفروق الدقيقة في اللهجات واللهجات والاستخدام الثقافي للكلمات والعامية وأنماط الكلام الأخرى.
    • يطلب المزيد من العملاء الإفصاح الكامل والشفافية عندما يقوم روبوت المحادثة بإشراكهم عبر الهاتف.
    • يحاول المحتالون استخدام روبوتات المحادثة الذكية لخداع الأشخاص / الضحايا لإصدار معلومات حساسة عن طريق محاكاة الأصوات أو أنماط الكلام.
    • تزايد خطر تحيز الخوارزمية بسبب بيانات التدريب المكتوبة من قبل الإنسان ، والتي قد تعزز العنصرية والتمييز.

    أسئلة للتعليق عليها

    • كيف يمكن لـ LaMDA أو غيره من المتحدثين بالذكاء الاصطناعي تحسين الخدمات العامة؟
    • ما هي الطرق الأخرى التي يمكن لمحادث الذكاء الاصطناعي الأفضل أن يجعل حياتك أسهل؟

    مراجع البصيرة

    تمت الإشارة إلى الروابط الشعبية والمؤسسية التالية من أجل هذه الرؤية: