سوگیری هوش مصنوعی: ماشین ها آنقدر که ما امیدوار بودیم عینی نیستند
سوگیری هوش مصنوعی: ماشین ها آنقدر که ما امیدوار بودیم عینی نیستند
سوگیری هوش مصنوعی: ماشین ها آنقدر که ما امیدوار بودیم عینی نیستند
- نویسنده:
- فوریه 8، 2022
خلاصه بینش
در حالی که فناوریهای مبتنی بر دادهها نوید پرورش یک جامعه عادلانه را میدهند، اغلب منعکسکننده همان سوگیریهایی هستند که انسانها دارند و منجر به بیعدالتیهای بالقوه میشود. به عنوان مثال، تعصبات در سیستمهای هوش مصنوعی (AI) میتواند به طور ناخواسته کلیشههای مضر را بدتر کند. با این حال، تلاشهایی در حال انجام است تا سیستمهای هوش مصنوعی عادلانهتر شوند، اگرچه این سؤالات پیچیدهای را در مورد تعادل بین سودمندی و انصاف و نیاز به مقررات متفکرانه و تنوع در تیمهای فناوری ایجاد میکند.
زمینه کلی سوگیری هوش مصنوعی
امید این است که فناوریهای مبتنی بر دادهها به بشریت در ایجاد جامعهای کمک کنند که در آن عدالت برای همه هنجار باشد. با این حال، واقعیت فعلی تصویر متفاوتی را ترسیم می کند. بسیاری از تعصبات انسان ها که در گذشته منجر به بی عدالتی شده است، اکنون در الگوریتم های حاکم بر دنیای دیجیتال ما منعکس شده است. این سوگیریها در سیستمهای هوش مصنوعی اغلب ناشی از تعصبات افرادی است که این سیستمها را توسعه میدهند، و این سوگیریها اغلب در کار آنها نفوذ میکند.
به عنوان مثال، پروژه ای در سال 2012 به نام ImageNet را در نظر بگیرید که به دنبال جمع سپاری برچسب گذاری تصاویر برای آموزش سیستم های یادگیری ماشین بود. یک شبکه عصبی بزرگ که بر روی این داده ها آموزش دیده بود، متعاقباً توانست اشیاء را با دقت چشمگیری شناسایی کند. با این حال، محققان پس از بررسی دقیق تر، سوگیری های پنهان در داده های ImageNet را کشف کردند. در یک مورد خاص، الگوریتمی که بر روی این داده ها آموزش داده شده بود با این فرض که همه برنامه نویسان نرم افزار مردان سفید پوست هستند، سوگیری داشت.
این تعصب به طور بالقوه می تواند منجر به نادیده گرفته شدن زنان برای چنین نقش هایی در زمانی که فرآیند استخدام خودکار است، شود. سوگیری ها راه خود را به مجموعه داده ها پیدا کردند زیرا فردی که برچسب هایی را به تصاویر "زن" اضافه می کرد شامل یک برچسب اضافی بود که شامل یک اصطلاح تحقیرآمیز بود. این مثال نشان میدهد که چگونه سوگیریها، چه عمدی یا غیرعمدی، میتوانند حتی در پیچیدهترین سیستمهای هوش مصنوعی نفوذ کنند و به طور بالقوه کلیشهها و نابرابریهای مضر را تداوم بخشند.
تاثیر مخرب
تلاشهایی برای رسیدگی به سوگیری در دادهها و الگوریتمها توسط محققان در سازمانهای مختلف دولتی و خصوصی آغاز شده است. برای مثال، در مورد پروژه ImageNet، جمعسپاری برای شناسایی و حذف عبارات برچسبگذاری که نور تحقیرآمیزی بر روی تصاویر خاص میافکند، استفاده شد. این اقدامات نشان داد که واقعاً امکان پیکربندی مجدد سیستمهای هوش مصنوعی برای عادلانهتر شدن وجود دارد.
با این حال، برخی از کارشناسان استدلال میکنند که حذف سوگیری میتواند به طور بالقوه یک مجموعه داده را کمتر اثربخش کند، بهویژه زمانی که سوگیریهای متعدد در کار هستند. مجموعه دادهای که از سوگیریهای خاص پاک شده باشد ممکن است در نهایت فاقد اطلاعات کافی برای استفاده مؤثر باشد. این سوال را مطرح می کند که یک مجموعه داده تصویری واقعاً متنوع چگونه خواهد بود و چگونه می توان از آن بدون به خطر انداختن ابزار آن استفاده کرد.
این روند بر نیاز به رویکردی متفکرانه برای استفاده از هوش مصنوعی و فناوریهای مبتنی بر داده تأکید میکند. برای شرکتها، این ممکن است به معنای سرمایهگذاری در ابزارهای تشخیص سوگیری و ارتقای تنوع در تیمهای فناوری باشد. برای دولتها، میتواند شامل اجرای مقرراتی برای اطمینان از استفاده منصفانه از هوش مصنوعی باشد.
پیامدهای سوگیری هوش مصنوعی
پیامدهای گسترده تر سوگیری هوش مصنوعی ممکن است شامل موارد زیر باشد:
- سازمانها در حصول اطمینان از انصاف و عدم تبعیض فعال هستند زیرا از هوش مصنوعی برای بهبود بهرهوری و عملکرد استفاده میکنند.
- داشتن یک اخلاق شناس هوش مصنوعی در تیم های توسعه برای شناسایی و کاهش خطرات اخلاقی در مراحل اولیه پروژه.
- طراحی محصولات هوش مصنوعی با عوامل گوناگونی مانند جنسیت، نژاد، طبقه و فرهنگ به وضوح در ذهن.
- دریافت نمایندگانی از گروههای مختلف که از محصول هوش مصنوعی یک شرکت برای آزمایش آن قبل از عرضه استفاده میکنند.
- خدمات عمومی مختلف برای برخی از اعضای عمومی محدود شده است.
- برخی از افراد جامعه قادر به دسترسی یا واجد شرایط بودن برای برخی فرصت های شغلی نیستند.
- سازمان های مجری قانون و متخصصان به طور غیرمنصفانه برخی از اعضای جامعه را بیشتر از دیگران هدف قرار می دهند.
سوالاتی که باید در نظر گرفته شود
- آیا شما خوشبین هستید که تصمیم گیری خودکار در آینده منصفانه خواهد بود؟
- در مورد تصمیم گیری هوش مصنوعی چه چیزی شما را عصبی تر می کند؟
مراجع بینش
پیوندهای محبوب و نهادی زیر برای این بینش ارجاع داده شد: