تحيز الذكاء الاصطناعي: الآلات ليست موضوعية كما كنا نأمل

رصيد الصورة:
الصورة الائتمان
ستوك

تحيز الذكاء الاصطناعي: الآلات ليست موضوعية كما كنا نأمل

تحيز الذكاء الاصطناعي: الآلات ليست موضوعية كما كنا نأمل

نص عنوان فرعي
يتفق الجميع على أن الذكاء الاصطناعي يجب أن يكون غير متحيز ، لكن إزالة التحيزات تثبت أنه مشكلة
    • كاتب:
    • اسم المؤلف
      البصيرة الكمومية
    • 8 فبراير 2022

    ملخص البصيرة

    وفي حين تحمل التكنولوجيات القائمة على البيانات الوعد بتعزيز مجتمع عادل، فإنها غالبا ما تعكس نفس التحيزات التي يحملها البشر، مما يؤدي إلى ظلم محتمل. على سبيل المثال، يمكن للتحيزات في أنظمة الذكاء الاصطناعي (AI) أن تؤدي عن غير قصد إلى تفاقم الصور النمطية الضارة. ومع ذلك، هناك جهود جارية لجعل أنظمة الذكاء الاصطناعي أكثر إنصافًا، على الرغم من أن هذا يثير أسئلة معقدة حول التوازن بين المنفعة والعدالة، والحاجة إلى تنظيم مدروس والتنوع في فرق التكنولوجيا.

    السياق العام لتحيز الذكاء الاصطناعي

    والأمل هو أن تساعد التكنولوجيات التي تعتمد على البيانات البشرية في إنشاء مجتمع حيث العدالة هي القاعدة للجميع. إلا أن الواقع الحالي يرسم صورة مختلفة. إن العديد من التحيزات لدى البشر، والتي أدت إلى الظلم في الماضي، تنعكس الآن في الخوارزميات التي تحكم عالمنا الرقمي. غالبًا ما تنبع هذه التحيزات في أنظمة الذكاء الاصطناعي من تحيزات الأفراد الذين يطورون هذه الأنظمة، وكثيرًا ما تتسرب هذه التحيزات إلى عملهم.

    خذ على سبيل المثال مشروعًا في عام 2012 يُعرف باسم ImageNet، والذي سعى إلى التعهيد الجماعي لتصنيف الصور لتدريب أنظمة التعلم الآلي. وتمكنت شبكة عصبية كبيرة تم تدريبها على هذه البيانات من تحديد الأشياء بدقة مذهلة. ومع ذلك، بعد الفحص الدقيق، اكتشف الباحثون تحيزات مخبأة داخل بيانات ImageNet. وفي إحدى الحالات المحددة، كانت الخوارزمية التي تم تدريبها على هذه البيانات متحيزة نحو افتراض أن جميع مبرمجي البرمجيات هم من الرجال البيض.

    من المحتمل أن يؤدي هذا التحيز إلى تجاهل النساء لمثل هذه الأدوار عندما تتم أتمتة عملية التوظيف. وجدت التحيزات طريقها إلى مجموعات البيانات لأن الفرد الذي يضيف تسميات إلى صور "المرأة" يتضمن تسمية إضافية تتكون من مصطلح مهين. يوضح هذا المثال كيف يمكن للتحيزات، سواء كانت مقصودة أو غير مقصودة، أن تتسلل حتى إلى أنظمة الذكاء الاصطناعي الأكثر تطورا، مما قد يؤدي إلى إدامة الصور النمطية الضارة وأوجه عدم المساواة.

    التأثير التخريبي 

    بدأ الباحثون في مختلف المؤسسات العامة والخاصة بذل الجهود لمعالجة التحيز في البيانات والخوارزميات. في حالة مشروع ImageNet، على سبيل المثال، تم استخدام التعهيد الجماعي لتحديد وإزالة مصطلحات التصنيف التي تلقي ضوءًا مهينًا على صور معينة. وأظهرت هذه التدابير أنه من الممكن بالفعل إعادة تشكيل أنظمة الذكاء الاصطناعي لتكون أكثر عدالة.

    ومع ذلك، يرى بعض الخبراء أن إزالة التحيز يمكن أن تجعل مجموعة البيانات أقل فعالية، خاصة عندما تكون هناك تحيزات متعددة. قد تنتهي مجموعة البيانات المجردة من بعض التحيزات إلى الافتقار إلى المعلومات الكافية للاستخدام الفعال. إنه يثير التساؤل حول الشكل الذي ستبدو عليه مجموعة بيانات الصور المتنوعة حقًا، وكيف يمكن استخدامها دون المساس بفائدتها.

    ويؤكد هذا الاتجاه الحاجة إلى اتباع نهج مدروس لاستخدام الذكاء الاصطناعي والتقنيات القائمة على البيانات. بالنسبة للشركات، قد يعني هذا الاستثمار في أدوات الكشف عن التحيز وتعزيز التنوع في فرق التكنولوجيا. بالنسبة للحكومات، يمكن أن يشمل ذلك تنفيذ لوائح لضمان الاستخدام العادل للذكاء الاصطناعي. 

    الآثار المترتبة على تحيز الذكاء الاصطناعي

    قد تشمل الآثار الأوسع لتحيز الذكاء الاصطناعي ما يلي:

    • تكون المنظمات استباقية في ضمان العدالة وعدم التمييز لأنها تستفيد من الذكاء الاصطناعي لتحسين الإنتاجية والأداء. 
    • وجود خبير في أخلاقيات الذكاء الاصطناعي في فرق التطوير لاكتشاف المخاطر الأخلاقية وتخفيفها في وقت مبكر من المشروع. 
    • تصميم منتجات الذكاء الاصطناعي مع مراعاة عوامل التنوع مثل الجنس والعرق والطبقة والثقافة بوضوح.
    • الحصول على ممثلين من المجموعات المتنوعة التي ستستخدم منتج الذكاء الاصطناعي للشركة لاختباره قبل إصداره.
    • يتم تقييد الخدمات العامة المختلفة من أفراد معينين من الجمهور.
    • عدم قدرة أفراد معينين من الجمهور على الوصول إلى فرص عمل معينة أو التأهل لها.
    • وكالات إنفاذ القانون والمهنيين الذين يستهدفون بشكل غير عادل أعضاء معينين في المجتمع أكثر من غيرهم. 

    أسئلة للنظر فيها

    • هل أنت متفائل بأن صنع القرار الآلي سيكون عادلاً في المستقبل؟
    • ما الذي يجعلك اتخاذ القرار بشأن الذكاء الاصطناعي أكثر توترًا؟

    مراجع البصيرة

    تمت الإشارة إلى الروابط الشعبية والمؤسسية التالية من أجل هذه الرؤية: