سوگیری هوش مصنوعی: ماشین ها آنقدر که ما امیدوار بودیم عینی نیستند

اعتبار تصویر:
تصویر های اعتباری
iStock

سوگیری هوش مصنوعی: ماشین ها آنقدر که ما امیدوار بودیم عینی نیستند

سوگیری هوش مصنوعی: ماشین ها آنقدر که ما امیدوار بودیم عینی نیستند

متن زیر عنوان
همه موافق هستند که هوش مصنوعی باید بی طرفانه باشد، اما حذف سوگیری ها مشکل ساز است
    • نویسنده:
    • نام نویسنده
      آینده نگاری کوانتوم ران
    • فوریه 8، 2022

    خلاصه بینش

    در حالی که فناوری‌های مبتنی بر داده‌ها نوید پرورش یک جامعه عادلانه را می‌دهند، اغلب منعکس‌کننده همان سوگیری‌هایی هستند که انسان‌ها دارند و منجر به بی‌عدالتی‌های بالقوه می‌شود. به عنوان مثال، تعصبات در سیستم‌های هوش مصنوعی (AI) می‌تواند به طور ناخواسته کلیشه‌های مضر را بدتر کند. با این حال، تلاش‌هایی در حال انجام است تا سیستم‌های هوش مصنوعی عادلانه‌تر شوند، اگرچه این سؤالات پیچیده‌ای را در مورد تعادل بین سودمندی و انصاف و نیاز به مقررات متفکرانه و تنوع در تیم‌های فناوری ایجاد می‌کند.

    زمینه کلی سوگیری هوش مصنوعی

    امید این است که فناوری‌های مبتنی بر داده‌ها به بشریت در ایجاد جامعه‌ای کمک کنند که در آن عدالت برای همه هنجار باشد. با این حال، واقعیت فعلی تصویر متفاوتی را ترسیم می کند. بسیاری از تعصبات انسان ها که در گذشته منجر به بی عدالتی شده است، اکنون در الگوریتم های حاکم بر دنیای دیجیتال ما منعکس شده است. این سوگیری‌ها در سیستم‌های هوش مصنوعی اغلب ناشی از تعصبات افرادی است که این سیستم‌ها را توسعه می‌دهند، و این سوگیری‌ها اغلب در کار آنها نفوذ می‌کند.

    به عنوان مثال، پروژه ای در سال 2012 به نام ImageNet را در نظر بگیرید که به دنبال جمع سپاری برچسب گذاری تصاویر برای آموزش سیستم های یادگیری ماشین بود. یک شبکه عصبی بزرگ که بر روی این داده ها آموزش دیده بود، متعاقباً توانست اشیاء را با دقت چشمگیری شناسایی کند. با این حال، محققان پس از بررسی دقیق تر، سوگیری های پنهان در داده های ImageNet را کشف کردند. در یک مورد خاص، الگوریتمی که بر روی این داده ها آموزش داده شده بود با این فرض که همه برنامه نویسان نرم افزار مردان سفید پوست هستند، سوگیری داشت.

    این تعصب به طور بالقوه می تواند منجر به نادیده گرفته شدن زنان برای چنین نقش هایی در زمانی که فرآیند استخدام خودکار است، شود. سوگیری ها راه خود را به مجموعه داده ها پیدا کردند زیرا فردی که برچسب هایی را به تصاویر "زن" اضافه می کرد شامل یک برچسب اضافی بود که شامل یک اصطلاح تحقیرآمیز بود. این مثال نشان می‌دهد که چگونه سوگیری‌ها، چه عمدی یا غیرعمدی، می‌توانند حتی در پیچیده‌ترین سیستم‌های هوش مصنوعی نفوذ کنند و به طور بالقوه کلیشه‌ها و نابرابری‌های مضر را تداوم بخشند.

    تاثیر مخرب 

    تلاش‌هایی برای رسیدگی به سوگیری در داده‌ها و الگوریتم‌ها توسط محققان در سازمان‌های مختلف دولتی و خصوصی آغاز شده است. برای مثال، در مورد پروژه ImageNet، جمع‌سپاری برای شناسایی و حذف عبارات برچسب‌گذاری که نور تحقیرآمیزی بر روی تصاویر خاص می‌افکند، استفاده شد. این اقدامات نشان داد که واقعاً امکان پیکربندی مجدد سیستم‌های هوش مصنوعی برای عادلانه‌تر شدن وجود دارد.

    با این حال، برخی از کارشناسان استدلال می‌کنند که حذف سوگیری می‌تواند به طور بالقوه یک مجموعه داده را کمتر اثربخش کند، به‌ویژه زمانی که سوگیری‌های متعدد در کار هستند. مجموعه داده‌ای که از سوگیری‌های خاص پاک شده باشد ممکن است در نهایت فاقد اطلاعات کافی برای استفاده مؤثر باشد. این سوال را مطرح می کند که یک مجموعه داده تصویری واقعاً متنوع چگونه خواهد بود و چگونه می توان از آن بدون به خطر انداختن ابزار آن استفاده کرد.

    این روند بر نیاز به رویکردی متفکرانه برای استفاده از هوش مصنوعی و فناوری‌های مبتنی بر داده تأکید می‌کند. برای شرکت‌ها، این ممکن است به معنای سرمایه‌گذاری در ابزارهای تشخیص سوگیری و ارتقای تنوع در تیم‌های فناوری باشد. برای دولت‌ها، می‌تواند شامل اجرای مقرراتی برای اطمینان از استفاده منصفانه از هوش مصنوعی باشد. 

    پیامدهای سوگیری هوش مصنوعی

    پیامدهای گسترده تر سوگیری هوش مصنوعی ممکن است شامل موارد زیر باشد:

    • سازمان‌ها در حصول اطمینان از انصاف و عدم تبعیض فعال هستند زیرا از هوش مصنوعی برای بهبود بهره‌وری و عملکرد استفاده می‌کنند. 
    • داشتن یک اخلاق شناس هوش مصنوعی در تیم های توسعه برای شناسایی و کاهش خطرات اخلاقی در مراحل اولیه پروژه. 
    • طراحی محصولات هوش مصنوعی با عوامل گوناگونی مانند جنسیت، نژاد، طبقه و فرهنگ به وضوح در ذهن.
    • دریافت نمایندگانی از گروه‌های مختلف که از محصول هوش مصنوعی یک شرکت برای آزمایش آن قبل از عرضه استفاده می‌کنند.
    • خدمات عمومی مختلف برای برخی از اعضای عمومی محدود شده است.
    • برخی از افراد جامعه قادر به دسترسی یا واجد شرایط بودن برای برخی فرصت های شغلی نیستند.
    • سازمان های مجری قانون و متخصصان به طور غیرمنصفانه برخی از اعضای جامعه را بیشتر از دیگران هدف قرار می دهند. 

    سوالاتی که باید در نظر گرفته شود

    • آیا شما خوشبین هستید که تصمیم گیری خودکار در آینده منصفانه خواهد بود؟
    • در مورد تصمیم گیری هوش مصنوعی چه چیزی شما را عصبی تر می کند؟

    مراجع بینش

    پیوندهای محبوب و نهادی زیر برای این بینش ارجاع داده شد: