تنظيم الذكاء الاصطناعي في أوروبا: محاولة لإبقاء الذكاء الاصطناعي إنسانيًا

رصيد الصورة:
الصورة الائتمان
ستوك

تنظيم الذكاء الاصطناعي في أوروبا: محاولة لإبقاء الذكاء الاصطناعي إنسانيًا

مصممة لمستقبل الغد

ستمنحك منصة Quantumrun Trends الرؤى والأدوات والمجتمع لاستكشاف الاتجاهات المستقبلية والازدهار فيها.

عرض خاص

5 دولارات في الشهر

تنظيم الذكاء الاصطناعي في أوروبا: محاولة لإبقاء الذكاء الاصطناعي إنسانيًا

نص عنوان فرعي
يهدف الاقتراح التنظيمي للذكاء الاصطناعي الصادر عن المفوضية الأوروبية إلى تعزيز الاستخدام الأخلاقي للذكاء الاصطناعي.
    • كاتب:
    • اسم المؤلف
      البصيرة الكمومية
    • 13 حزيران، 2022

    ملخص البصيرة

    تتخذ المفوضية الأوروبية (EC) خطوات واسعة لوضع معايير أخلاقية للذكاء الاصطناعي (AI)، مع التركيز على منع سوء الاستخدام في مجالات مثل المراقبة وبيانات المستهلك. وقد أثارت هذه الخطوة جدلاً في صناعة التكنولوجيا ويمكن أن تؤدي إلى نهج موحد مع الولايات المتحدة يهدف إلى التأثير العالمي. ومع ذلك، قد يكون لهذه اللوائح أيضًا عواقب غير مقصودة، مثل الحد من المنافسة في السوق والتأثير على فرص العمل في قطاع التكنولوجيا.

    سياق تنظيم الذكاء الاصطناعي الأوروبي

    تركز المفوضية الأوروبية بشكل نشط على وضع سياسات لحماية خصوصية البيانات والحقوق عبر الإنترنت. وفي الآونة الأخيرة، توسع هذا التركيز ليشمل الاستخدام الأخلاقي لتقنيات الذكاء الاصطناعي. وتشعر المفوضية الأوروبية بالقلق إزاء احتمال إساءة استخدام الذكاء الاصطناعي في مختلف القطاعات، من جمع بيانات المستهلك إلى المراقبة. ومن خلال القيام بذلك، تهدف المفوضية إلى وضع معيار لأخلاقيات الذكاء الاصطناعي، ليس فقط داخل الاتحاد الأوروبي ولكن ربما كنموذج لبقية العالم.

    في أبريل 2021، اتخذت المفوضية الأوروبية خطوة مهمة من خلال إصدار مجموعة من القواعد التي تهدف إلى مراقبة تطبيقات الذكاء الاصطناعي. تم تصميم هذه القواعد لمنع استخدام الذكاء الاصطناعي للمراقبة أو إدامة التحيز أو الإجراءات القمعية من قبل الحكومات أو المنظمات. وعلى وجه التحديد، تحظر اللوائح أنظمة الذكاء الاصطناعي التي يمكن أن تلحق الضرر بالأفراد جسديًا أو نفسيًا. على سبيل المثال، لا يُسمح بأنظمة الذكاء الاصطناعي التي تتلاعب بسلوك الأشخاص من خلال رسائل مخفية، ولا يُسمح أيضًا بالأنظمة التي تستغل نقاط الضعف الجسدية أو العقلية لدى الأشخاص.

    وإلى جانب ذلك، طورت المفوضية الأوروبية أيضًا سياسة أكثر صرامة لما تعتبره أنظمة الذكاء الاصطناعي "عالية المخاطر". هذه هي تطبيقات الذكاء الاصطناعي المستخدمة في القطاعات التي لها تأثير كبير على السلامة العامة والرفاهية، مثل الأجهزة الطبية ومعدات السلامة وأدوات إنفاذ القانون. تحدد السياسة متطلبات التدقيق الأكثر صرامة، وعملية الموافقة، والمراقبة المستمرة بعد نشر هذه الأنظمة. وتندرج تحت هذه المظلة أيضًا صناعات مثل تحديد الهوية البيومترية، والبنية التحتية الحيوية، والتعليم. وقد تواجه الشركات التي لا تلتزم بهذه اللوائح غرامات باهظة تصل إلى 32 مليون دولار أمريكي أو 6 بالمائة من إيراداتها السنوية العالمية.

    التأثير التخريبي

    وقد أعربت صناعة التكنولوجيا عن مخاوفها بشأن الإطار التنظيمي للذكاء الاصطناعي في المفوضية الأوروبية، بحجة أن مثل هذه القواعد يمكن أن تعيق التقدم التكنولوجي. ويشير النقاد إلى أن تعريف أنظمة الذكاء الاصطناعي "عالية المخاطر" في الإطار ليس واضحًا. على سبيل المثال، لا يتم تصنيف شركات التكنولوجيا الكبيرة التي تستخدم الذكاء الاصطناعي في خوارزميات وسائل التواصل الاجتماعي أو الإعلانات المستهدفة على أنها "عالية المخاطر"، على الرغم من حقيقة أن هذه التطبيقات ارتبطت بقضايا مجتمعية مختلفة مثل المعلومات المضللة والاستقطاب. وتواجه المفوضية الأوروبية هذا من خلال الإشارة إلى أن وكالات الإشراف الوطنية داخل كل دولة من دول الاتحاد الأوروبي سيكون لها الكلمة الأخيرة بشأن ما يشكل طلبًا عالي المخاطر، ولكن هذا النهج قد يؤدي إلى تناقضات بين الدول الأعضاء.

    إن الاتحاد الأوروبي لا يتصرف بمعزل عن غيره؛ وتهدف إلى التعاون مع الولايات المتحدة لوضع معيار عالمي لأخلاقيات الذكاء الاصطناعي. كما يدعو قانون المنافسة الاستراتيجية الذي أصدره مجلس الشيوخ الأمريكي، والذي صدر في أبريل 2021، إلى التعاون الدولي لمواجهة "الاستبداد الرقمي"، في إشارة مستترة إلى ممارسات مثل استخدام الصين للقياسات الحيوية للمراقبة الجماعية. ومن الممكن أن تحدد هذه الشراكة عبر الأطلسي نغمة أخلاقيات الذكاء الاصطناعي العالمية، ولكنها تثير أيضًا تساؤلات حول كيفية تطبيق هذه المعايير في جميع أنحاء العالم. فهل تلتزم البلدان ذات وجهات النظر المختلفة بشأن خصوصية البيانات والحقوق الفردية، مثل الصين وروسيا، بهذه المبادئ التوجيهية، أم أن هذا سيخلق مشهدًا مجزأً لأخلاقيات الذكاء الاصطناعي؟

    إذا أصبحت هذه اللوائح قانونًا في منتصف وأواخر عام 2020، فقد يكون لها تأثير مضاعف على صناعة التكنولوجيا والقوى العاملة في الاتحاد الأوروبي. قد تختار الشركات العاملة في الاتحاد الأوروبي تطبيق هذه التغييرات التنظيمية على مستوى العالم، ومواءمة عملياتها بالكامل مع المعايير الجديدة. ومع ذلك، قد تجد بعض المنظمات أن اللوائح مرهقة للغاية وتختار الخروج من سوق الاتحاد الأوروبي تمامًا. وسيكون لكل من السيناريوهين آثار على التوظيف في قطاع التكنولوجيا في الاتحاد الأوروبي. على سبيل المثال، قد يؤدي الخروج الجماعي للشركات إلى فقدان الوظائف، في حين أن التوافق العالمي مع معايير الاتحاد الأوروبي يمكن أن يجعل الأدوار التقنية في الاتحاد الأوروبي أكثر تخصصا وربما أكثر قيمة.

    الآثار المترتبة على زيادة تنظيم الذكاء الاصطناعي في أوروبا

    قد تشمل الآثار الأوسع نطاقاً لرغبة المفوضية الأوروبية المتزايدة في تنظيم الذكاء الاصطناعي ما يلي:

    • يقوم الاتحاد الأوروبي والولايات المتحدة بتشكيل اتفاقية اعتماد متبادلة لشركات الذكاء الاصطناعي، مما يؤدي إلى مجموعة منسقة من المعايير الأخلاقية التي يجب على الشركات اتباعها، بغض النظر عن موقعها الجغرافي.
    • النمو في المجال المتخصص لتدقيق الذكاء الاصطناعي، مدعومًا بزيادة التعاون بين الشركات الخاصة والقطاع العام لضمان الامتثال للوائح الجديدة.
    • حصول الدول والشركات من العالم النامي على إمكانية الوصول إلى الخدمات الرقمية التي تلتزم بمعايير الذكاء الاصطناعي الأخلاقية التي وضعتها الدول الغربية، مما قد يؤدي إلى رفع جودة هذه الخدمات وسلامتها.
    • تحول في نماذج الأعمال لإعطاء الأولوية للممارسات الأخلاقية للذكاء الاصطناعي، وجذب المستهلكين الذين يشعرون بقلق متزايد بشأن خصوصية البيانات واستخدام التكنولوجيا الأخلاقية.
    • تتبنى الحكومات الذكاء الاصطناعي في الخدمات العامة مثل الرعاية الصحية والنقل بثقة أكبر، مع العلم أن هذه التقنيات تلبي معايير أخلاقية صارمة.
    • زيادة الاستثمار في البرامج التعليمية التي تركز على الذكاء الاصطناعي الأخلاقي، مما يؤدي إلى خلق جيل جديد من التقنيين الذين يتمتعون بخبرة جيدة في قدرات الذكاء الاصطناعي والاعتبارات الأخلاقية.
    • تواجه الشركات الناشئة في مجال التكنولوجيا الصغيرة عوائق أمام الدخول بسبب ارتفاع تكاليف الامتثال التنظيمي، مما قد يؤدي إلى خنق المنافسة ويؤدي إلى توحيد السوق.

    أسئلة للنظر فيها

    • هل تعتقد أن الحكومات يجب أن تنظم تقنيات الذكاء الاصطناعي وكيف يتم نشرها؟
    • وإلا كيف يمكن أن تؤثر التنظيمات المتزايدة داخل صناعة التكنولوجيا على الطريقة التي تعمل بها الشركات في هذا القطاع؟ 

    مراجع البصيرة

    تمت الإشارة إلى الروابط الشعبية والمؤسسية التالية من أجل هذه الرؤية: