مقررات هوش مصنوعی اروپا: تلاشی برای انسانی نگه داشتن هوش مصنوعی
مقررات هوش مصنوعی اروپا: تلاشی برای انسانی نگه داشتن هوش مصنوعی
مقررات هوش مصنوعی اروپا: تلاشی برای انسانی نگه داشتن هوش مصنوعی
- نویسنده:
- ژوئن 13، 2022
خلاصه بینش
کمیسیون اروپا (EC) برای تعیین استانداردهای اخلاقی برای هوش مصنوعی (AI)، با تمرکز بر جلوگیری از سوء استفاده در زمینههایی مانند نظارت و دادههای مصرفکننده، گامهایی برمیدارد. این حرکت باعث ایجاد بحث در صنعت فناوری شده است و می تواند منجر به رویکردی واحد با ایالات متحده با هدف نفوذ جهانی شود. با این حال، مقررات ممکن است پیامدهای ناخواسته ای مانند محدود کردن رقابت در بازار و تأثیرگذاری بر فرصت های شغلی در بخش فناوری داشته باشد.
زمینه مقررات هوش مصنوعی اروپا
EC فعالانه بر ایجاد سیاست هایی برای محافظت از حریم خصوصی داده ها و حقوق آنلاین تمرکز کرده است. اخیراً، این تمرکز گسترش یافته و شامل استفاده اخلاقی از فناوریهای هوش مصنوعی میشود. اتحادیه اروپا نگران سوء استفاده احتمالی از هوش مصنوعی در بخشهای مختلف، از جمعآوری دادههای مصرفکننده گرفته تا نظارت است. با انجام این کار، کمیسیون قصد دارد استانداردی برای اخلاق هوش مصنوعی، نه فقط در اتحادیه اروپا، بلکه به طور بالقوه به عنوان یک مدل برای بقیه جهان تعیین کند.
در آوریل 2021، اتحادیه اروپا با انتشار مجموعه ای از قوانین با هدف نظارت بر برنامه های کاربردی هوش مصنوعی، گام مهمی برداشت. این قوانین برای جلوگیری از استفاده از هوش مصنوعی برای نظارت، تداوم تعصب یا اقدامات سرکوبگرانه توسط دولت ها یا سازمان ها طراحی شده اند. به طور خاص، مقررات، سیستمهای هوش مصنوعی را که میتوانند از نظر جسمی یا روانی به افراد آسیب برسانند، ممنوع میکند. برای مثال، سیستمهای هوش مصنوعی که رفتار افراد را از طریق پیامهای پنهان دستکاری میکنند، مجاز نیستند، همچنین سیستمهایی که از آسیبپذیریهای فیزیکی یا ذهنی افراد سوءاستفاده میکنند، مجاز نیستند.
در کنار این، EC همچنین سیاست دقیقتری را برای آنچه که سیستمهای هوش مصنوعی «پرخطر» میداند، تدوین کرده است. اینها برنامه های کاربردی هوش مصنوعی هستند که در بخش هایی استفاده می شوند که تأثیر قابل توجهی بر ایمنی و رفاه عمومی دارند، مانند دستگاه های پزشکی، تجهیزات ایمنی و ابزارهای اجرای قانون. این خطمشی الزامات حسابرسی سختگیرانهتر، فرآیند تأیید و نظارت مستمر پس از استقرار این سیستمها را مشخص میکند. صنایعی مانند شناسایی بیومتریک، زیرساخت های حیاتی و آموزش نیز زیر این چتر قرار دارند. شرکت هایی که از این مقررات پیروی نکنند ممکن است با جریمه های سنگینی تا 32 میلیون دلار یا 6 درصد از درآمد سالانه جهانی خود مواجه شوند.
تاثیر مخرب
صنعت فناوری نگرانی خود را در مورد چارچوب نظارتی EC برای هوش مصنوعی ابراز کرده است و استدلال می کند که چنین قوانینی می تواند مانع پیشرفت فناوری شود. منتقدان خاطرنشان میکنند که تعریف سیستمهای هوش مصنوعی «پرخطر» در این چارچوب مشخص نیست. به عنوان مثال، شرکتهای بزرگ فناوری که از هوش مصنوعی برای الگوریتمهای رسانههای اجتماعی یا تبلیغات هدفمند استفاده میکنند، بهعنوان «پرخطر» طبقهبندی نمیشوند، علیرغم این واقعیت که این برنامهها با مسائل مختلف اجتماعی مانند اطلاعات نادرست و قطبیسازی مرتبط هستند. EC با این موضوع مقابله میکند و بیان میکند که آژانسهای نظارتی ملی در هر کشور اتحادیه اروپا حرف آخر را در مورد آنچه که یک برنامه پرخطر است میگویند، اما این رویکرد میتواند منجر به ناهماهنگی در کشورهای عضو شود.
اتحادیه اروپا (EU) منزوی عمل نمی کند. هدف آن همکاری با ایالات متحده برای ایجاد یک استاندارد جهانی برای اخلاق هوش مصنوعی است. قانون رقابت استراتژیک سنای ایالات متحده که در آوریل 2021 منتشر شد، همچنین خواستار همکاری بین المللی برای مقابله با "اقتدارگرایی دیجیتال" است، که اشاره ای پنهان به اقداماتی مانند استفاده چین از بیومتریک برای نظارت جمعی است. این مشارکت فراآتلانتیکی میتواند لحن اخلاق جهانی هوش مصنوعی را تعیین کند، اما همچنین سؤالاتی را در مورد چگونگی اجرای چنین استانداردهایی در سراسر جهان ایجاد میکند. آیا کشورهایی با دیدگاههای متفاوت درباره حریم خصوصی دادهها و حقوق فردی، مانند چین و روسیه، به این دستورالعملها پایبند خواهند بود یا این امر باعث ایجاد چشماندازی پراکنده از اخلاق هوش مصنوعی میشود؟
اگر این مقررات در اواسط تا اواخر سال 2020 به قانون تبدیل شوند، می توانند تأثیرات موجی بر صنعت فناوری و نیروی کار در اتحادیه اروپا داشته باشند. شرکت های فعال در اتحادیه اروپا ممکن است تصمیم بگیرند که این تغییرات نظارتی را در سطح جهانی اعمال کنند و کل عملیات خود را با استانداردهای جدید هماهنگ کنند. با این حال، برخی از سازمان ها ممکن است مقررات را بسیار سنگین بدانند و تصمیم بگیرند که به طور کلی از بازار اتحادیه اروپا خارج شوند. هر دو سناریو پیامدهایی برای اشتغال در بخش فناوری اتحادیه اروپا خواهند داشت. برای مثال، خروج انبوه شرکتها میتواند منجر به از دست دادن شغل شود، در حالی که همسویی جهانی با استانداردهای اتحادیه اروپا میتواند نقشهای فناوری مبتنی بر اتحادیه اروپا را تخصصیتر و بالقوه ارزشمندتر کند.
پیامدهای افزایش مقررات هوش مصنوعی در اروپا
پیامدهای گسترده تر از تمایل فزاینده EC برای تنظیم هوش مصنوعی ممکن است شامل موارد زیر باشد:
- اتحادیه اروپا و ایالات متحده یک توافق نامه گواهی متقابل برای شرکت های هوش مصنوعی تشکیل می دهند که منجر به مجموعه ای هماهنگ از استانداردهای اخلاقی می شود که شرکت ها بدون توجه به موقعیت جغرافیایی خود باید از آنها پیروی کنند.
- رشد در زمینه تخصصی حسابرسی هوش مصنوعی، با افزایش همکاری بین شرکتهای خصوصی و بخشهای دولتی برای اطمینان از انطباق با مقررات جدید.
- کشورها و کسبوکارهای کشورهای در حال توسعه به خدمات دیجیتالی دسترسی پیدا میکنند که استانداردهای اخلاقی هوش مصنوعی تعیینشده توسط کشورهای غربی را رعایت میکنند و به طور بالقوه کیفیت و ایمنی این خدمات را ارتقا میدهند.
- تغییر در مدلهای تجاری برای اولویتبندی شیوههای هوش مصنوعی اخلاقی، جذب مشتریانی که به طور فزایندهای نگران حریم خصوصی دادهها و استفاده از فناوری اخلاقی هستند.
- دولتها هوش مصنوعی را در خدمات عمومی مانند مراقبتهای بهداشتی و حملونقل با اطمینان بیشتری به کار میگیرند، زیرا میدانند که این فناوریها با استانداردهای اخلاقی دقیقی مطابقت دارند.
- افزایش سرمایه گذاری در برنامه های آموزشی متمرکز بر هوش مصنوعی اخلاقی، ایجاد نسل جدیدی از فناوران که هم در قابلیت های هوش مصنوعی و هم در ملاحظات اخلاقی به خوبی آشنا هستند.
- استارتآپهای کوچکتر فناوری به دلیل هزینههای بالای انطباق با مقررات، بالقوه سرکوب رقابت و منجر به ادغام بازار، با موانعی برای ورود مواجه هستند.
سوالاتی که باید در نظر گرفته شود
- آیا معتقدید که دولت ها باید فناوری های هوش مصنوعی و نحوه استقرار آنها را تنظیم کنند؟
- چگونه ممکن است افزایش مقررات در صنعت فناوری بر نحوه عملکرد شرکتهای این بخش تأثیر بگذارد؟
مراجع بینش
پیوندهای محبوب و نهادی زیر برای این بینش ارجاع داده شد: