مقررات هوش مصنوعی اروپا: تلاشی برای انسانی نگه داشتن هوش مصنوعی

اعتبار تصویر:
تصویر های اعتباری
iStock

مقررات هوش مصنوعی اروپا: تلاشی برای انسانی نگه داشتن هوش مصنوعی

ساخته شده برای آینده نگر فردا

پلتفرم Quantumrun Trends بینش، ابزار و جامعه ای را برای کاوش و پیشرفت در روندهای آینده به شما می دهد.

پیشنهاد ویژه

5 دلار در ماه

مقررات هوش مصنوعی اروپا: تلاشی برای انسانی نگه داشتن هوش مصنوعی

متن زیر عنوان
پیشنهاد نظارتی هوش مصنوعی کمیسیون اروپا با هدف ترویج استفاده اخلاقی از هوش مصنوعی است.
    • نویسنده:
    • نام نویسنده
      آینده نگاری کوانتوم ران
    • ژوئن 13، 2022

    خلاصه بینش

    کمیسیون اروپا (EC) برای تعیین استانداردهای اخلاقی برای هوش مصنوعی (AI)، با تمرکز بر جلوگیری از سوء استفاده در زمینه‌هایی مانند نظارت و داده‌های مصرف‌کننده، گام‌هایی برمی‌دارد. این حرکت باعث ایجاد بحث در صنعت فناوری شده است و می تواند منجر به رویکردی واحد با ایالات متحده با هدف نفوذ جهانی شود. با این حال، مقررات ممکن است پیامدهای ناخواسته ای مانند محدود کردن رقابت در بازار و تأثیرگذاری بر فرصت های شغلی در بخش فناوری داشته باشد.

    زمینه مقررات هوش مصنوعی اروپا

    EC فعالانه بر ایجاد سیاست هایی برای محافظت از حریم خصوصی داده ها و حقوق آنلاین تمرکز کرده است. اخیراً، این تمرکز گسترش یافته و شامل استفاده اخلاقی از فناوری‌های هوش مصنوعی می‌شود. اتحادیه اروپا نگران سوء استفاده احتمالی از هوش مصنوعی در بخش‌های مختلف، از جمع‌آوری داده‌های مصرف‌کننده گرفته تا نظارت است. با انجام این کار، کمیسیون قصد دارد استانداردی برای اخلاق هوش مصنوعی، نه فقط در اتحادیه اروپا، بلکه به طور بالقوه به عنوان یک مدل برای بقیه جهان تعیین کند.

    در آوریل 2021، اتحادیه اروپا با انتشار مجموعه ای از قوانین با هدف نظارت بر برنامه های کاربردی هوش مصنوعی، گام مهمی برداشت. این قوانین برای جلوگیری از استفاده از هوش مصنوعی برای نظارت، تداوم تعصب یا اقدامات سرکوبگرانه توسط دولت ها یا سازمان ها طراحی شده اند. به طور خاص، مقررات، سیستم‌های هوش مصنوعی را که می‌توانند از نظر جسمی یا روانی به افراد آسیب برسانند، ممنوع می‌کند. برای مثال، سیستم‌های هوش مصنوعی که رفتار افراد را از طریق پیام‌های پنهان دستکاری می‌کنند، مجاز نیستند، همچنین سیستم‌هایی که از آسیب‌پذیری‌های فیزیکی یا ذهنی افراد سوءاستفاده می‌کنند، مجاز نیستند.

    در کنار این، EC همچنین سیاست دقیق‌تری را برای آنچه که سیستم‌های هوش مصنوعی «پرخطر» می‌داند، تدوین کرده است. اینها برنامه های کاربردی هوش مصنوعی هستند که در بخش هایی استفاده می شوند که تأثیر قابل توجهی بر ایمنی و رفاه عمومی دارند، مانند دستگاه های پزشکی، تجهیزات ایمنی و ابزارهای اجرای قانون. این خط‌مشی الزامات حسابرسی سخت‌گیرانه‌تر، فرآیند تأیید و نظارت مستمر پس از استقرار این سیستم‌ها را مشخص می‌کند. صنایعی مانند شناسایی بیومتریک، زیرساخت های حیاتی و آموزش نیز زیر این چتر قرار دارند. شرکت هایی که از این مقررات پیروی نکنند ممکن است با جریمه های سنگینی تا 32 میلیون دلار یا 6 درصد از درآمد سالانه جهانی خود مواجه شوند.

    تاثیر مخرب

    صنعت فناوری نگرانی خود را در مورد چارچوب نظارتی EC برای هوش مصنوعی ابراز کرده است و استدلال می کند که چنین قوانینی می تواند مانع پیشرفت فناوری شود. منتقدان خاطرنشان می‌کنند که تعریف سیستم‌های هوش مصنوعی «پرخطر» در این چارچوب مشخص نیست. به عنوان مثال، شرکت‌های بزرگ فناوری که از هوش مصنوعی برای الگوریتم‌های رسانه‌های اجتماعی یا تبلیغات هدفمند استفاده می‌کنند، به‌عنوان «پرخطر» طبقه‌بندی نمی‌شوند، علی‌رغم این واقعیت که این برنامه‌ها با مسائل مختلف اجتماعی مانند اطلاعات نادرست و قطبی‌سازی مرتبط هستند. EC با این موضوع مقابله می‌کند و بیان می‌کند که آژانس‌های نظارتی ملی در هر کشور اتحادیه اروپا حرف آخر را در مورد آنچه که یک برنامه پرخطر است می‌گویند، اما این رویکرد می‌تواند منجر به ناهماهنگی در کشورهای عضو شود.

    اتحادیه اروپا (EU) منزوی عمل نمی کند. هدف آن همکاری با ایالات متحده برای ایجاد یک استاندارد جهانی برای اخلاق هوش مصنوعی است. قانون رقابت استراتژیک سنای ایالات متحده که در آوریل 2021 منتشر شد، همچنین خواستار همکاری بین المللی برای مقابله با "اقتدارگرایی دیجیتال" است، که اشاره ای پنهان به اقداماتی مانند استفاده چین از بیومتریک برای نظارت جمعی است. این مشارکت فراآتلانتیکی می‌تواند لحن اخلاق جهانی هوش مصنوعی را تعیین کند، اما همچنین سؤالاتی را در مورد چگونگی اجرای چنین استانداردهایی در سراسر جهان ایجاد می‌کند. آیا کشورهایی با دیدگاه‌های متفاوت درباره حریم خصوصی داده‌ها و حقوق فردی، مانند چین و روسیه، به این دستورالعمل‌ها پایبند خواهند بود یا این امر باعث ایجاد چشم‌اندازی پراکنده از اخلاق هوش مصنوعی می‌شود؟

    اگر این مقررات در اواسط تا اواخر سال 2020 به قانون تبدیل شوند، می توانند تأثیرات موجی بر صنعت فناوری و نیروی کار در اتحادیه اروپا داشته باشند. شرکت های فعال در اتحادیه اروپا ممکن است تصمیم بگیرند که این تغییرات نظارتی را در سطح جهانی اعمال کنند و کل عملیات خود را با استانداردهای جدید هماهنگ کنند. با این حال، برخی از سازمان ها ممکن است مقررات را بسیار سنگین بدانند و تصمیم بگیرند که به طور کلی از بازار اتحادیه اروپا خارج شوند. هر دو سناریو پیامدهایی برای اشتغال در بخش فناوری اتحادیه اروپا خواهند داشت. برای مثال، خروج انبوه شرکت‌ها می‌تواند منجر به از دست دادن شغل شود، در حالی که همسویی جهانی با استانداردهای اتحادیه اروپا می‌تواند نقش‌های فناوری مبتنی بر اتحادیه اروپا را تخصصی‌تر و بالقوه ارزشمندتر کند.

    پیامدهای افزایش مقررات هوش مصنوعی در اروپا

    پیامدهای گسترده تر از تمایل فزاینده EC برای تنظیم هوش مصنوعی ممکن است شامل موارد زیر باشد:

    • اتحادیه اروپا و ایالات متحده یک توافق نامه گواهی متقابل برای شرکت های هوش مصنوعی تشکیل می دهند که منجر به مجموعه ای هماهنگ از استانداردهای اخلاقی می شود که شرکت ها بدون توجه به موقعیت جغرافیایی خود باید از آنها پیروی کنند.
    • رشد در زمینه تخصصی حسابرسی هوش مصنوعی، با افزایش همکاری بین شرکت‌های خصوصی و بخش‌های دولتی برای اطمینان از انطباق با مقررات جدید.
    • کشورها و کسب‌وکارهای کشورهای در حال توسعه به خدمات دیجیتالی دسترسی پیدا می‌کنند که استانداردهای اخلاقی هوش مصنوعی تعیین‌شده توسط کشورهای غربی را رعایت می‌کنند و به طور بالقوه کیفیت و ایمنی این خدمات را ارتقا می‌دهند.
    • تغییر در مدل‌های تجاری برای اولویت‌بندی شیوه‌های هوش مصنوعی اخلاقی، جذب مشتریانی که به طور فزاینده‌ای نگران حریم خصوصی داده‌ها و استفاده از فناوری اخلاقی هستند.
    • دولت‌ها هوش مصنوعی را در خدمات عمومی مانند مراقبت‌های بهداشتی و حمل‌ونقل با اطمینان بیشتری به کار می‌گیرند، زیرا می‌دانند که این فناوری‌ها با استانداردهای اخلاقی دقیقی مطابقت دارند.
    • افزایش سرمایه گذاری در برنامه های آموزشی متمرکز بر هوش مصنوعی اخلاقی، ایجاد نسل جدیدی از فناوران که هم در قابلیت های هوش مصنوعی و هم در ملاحظات اخلاقی به خوبی آشنا هستند.
    • استارت‌آپ‌های کوچک‌تر فناوری به دلیل هزینه‌های بالای انطباق با مقررات، بالقوه سرکوب رقابت و منجر به ادغام بازار، با موانعی برای ورود مواجه هستند.

    سوالاتی که باید در نظر گرفته شود

    • آیا معتقدید که دولت ها باید فناوری های هوش مصنوعی و نحوه استقرار آنها را تنظیم کنند؟
    • چگونه ممکن است افزایش مقررات در صنعت فناوری بر نحوه عملکرد شرکت‌های این بخش تأثیر بگذارد؟