مشڪلاتي تربيتي ڊيٽا: جڏهن AI سيکاريو ويندو آهي باصلاحيت ڊيٽا

تصويري ڪريڊٽ:
تصوير جي ڪريڊٽ
ايٽڪ

مشڪلاتي تربيتي ڊيٽا: جڏهن AI سيکاريو ويندو آهي باصلاحيت ڊيٽا

مشڪلاتي تربيتي ڊيٽا: جڏهن AI سيکاريو ويندو آهي باصلاحيت ڊيٽا

ذيلي عنوان متن
مصنوعي ذهانت سسٽم ڪڏهن ڪڏهن تابعاتي ڊيٽا سان متعارف ڪرايا ويندا آهن جيڪي متاثر ڪري سگهن ٿا ته اهو ڪيئن ڪم ڪري ٿو ۽ فيصلا ڪري ٿو.
    • الاهي:
    • ليکڪ جو نالو
      Quantumrun اڳڪٿي
    • آڪٽوبر 14، 2022

    بصيرت جو خلاصو

    اسان آھيون جيڪو اسان سکيو ۽ اندروني بڻايون؛ هي حڪم مصنوعي ذهانت (AI) تي پڻ لاڳو ٿئي ٿو. مشين لرننگ (ML) ماڊل جيڪي نامڪمل، باصلاحيت ۽ غير اخلاقي ڊيٽا سان ڀريل هوندا، آخرڪار مسئلا فيصلا ۽ تجويزون ڪندا. اهي طاقتور الگورٿم شايد صارفين جي اخلاقيات ۽ تاثرات تي اثر انداز ڪن ٿيون جيڪڏهن محقق محتاط نه آهن.

    مشڪلاتي تربيتي ڊيٽا جي حوالي سان

    2010 جي ڏهاڪي کان وٺي، تحقيقي ٽيمن جي ڇنڊڇاڻ ڪئي وئي آهي ته ٽريننگ ڊيٽا سيٽس کي غير مناسب مواد سان استعمال ڪرڻ يا غير اخلاقي طور تي گڏ ڪيو ويو. مثال طور، 2016 ۾، Microsoft جي MS-Celeb-1M ڊيٽابيس ۾ 10 ملين تصويرون شامل هيون 100,000 مختلف شخصيتن جون. جڏهن ته، وڌيڪ معائنو ڪرڻ تي، صحافين دريافت ڪيو ته ڪيتريون ئي تصويرون عام ماڻهن جون هيون جيڪي مالڪ جي رضامندي يا ڄاڻ کان سواء مختلف ويب سائيٽن تان ڪڍيون ويون آهن.

    انهي احساس جي باوجود، ڊيٽا سيٽ وڏين ڪمپنين جهڙوڪ Facebook ۽ SenseTime، هڪ چيني چهري جي سڃاڻپ ڪندڙ ڪمپني پاران استعمال ٿيڻ جاري رکي، رياستي پوليس سان ڳنڍيل آهن. اهڙي طرح، ڊيوڪ يونيورسٽي جي ڪيمپس (DukeMTMC) تي هلندڙ ماڻهن جي تصويرن تي مشتمل هڪ ڊيٽا سيٽ به رضامندي گڏ نه ڪيو. آخرڪار، ٻنهي ڊيٽا سيٽ کي هٽايو ويو. 

    مشڪلاتي ٽريننگ ڊيٽا جي نقصانڪار اثرن کي اجاگر ڪرڻ لاءِ، ميساچوسٽس انسٽيٽيوٽ آف ٽيڪنالاجي (MIT) جي محققن نارمن نالي هڪ AI ٺاهي جنهن کي انهن هڪ ذيلي ايڊٽ مان تصويري ڪيپشننگ ڪرڻ سيکاريو جيڪو گرافڪ تشدد کي نمايان ڪري ٿو. ٽيم وري نارمن کي روايتي ڊيٽا استعمال ڪندي تربيت يافته نيرل نيٽ ورڪ جي خلاف رکيو. محقق ٻنهي سسٽم کي Rorschach inkblots سان فراهم ڪيو ۽ AIs کان پڇيو ته انهن کي بيان ڪرڻ لاء جيڪي انهن ڏٺو. نتيجا شاندار هئا: جتي معياري اعصابي نيٽ ورڪ ڏٺو ”هڪ بيس بال دستانو جي ڪارو ۽ اڇي تصوير،“ نارمن ڏٺو ”هڪ ماڻهوءَ کي ڏينهن جي روشنيءَ ۾ مشين گن سان قتل ڪيو ويو. تجربو ڏيکاري ٿو ته AI خود بخود باصلاحيت نه آهي، پر اهي ڊيٽا ان پٽ طريقا ۽ انهن جي تخليق ڪندڙن جا مقصد هڪ AI جي رويي تي اثر انداز ڪري سگهن ٿا.

    خراب ڪندڙ اثر

    2021 ۾، تحقيقي تنظيم ايلن انسٽيٽيوٽ فار AI Ask Delphi ٺاهي، هڪ ML سافٽ ويئر جيڪو الگورتھم سان ڪنهن به اخلاقي سوال جي جوابن لاءِ جواب پيدا ڪري ٿو. پروجيڪٽ جي پويان محقق چيو ته AI آهستي آهستي وڌيڪ طاقتور ۽ واقف ٿي رهيو آهي، تنهنڪري سائنسدانن کي انهن ايم ايل سسٽم جي اخلاقيات کي سيکارڻ جي ضرورت آهي. Unicorn ML ماڊل ڊيلفي جو بنياد آهي. اهو "عام فهم" استدلال کي کڻڻ لاءِ ٺاهيو ويو هو، جيئن متن جي تار جي سڀ کان وڌيڪ امڪاني پڇاڙي کي چونڊڻ. 

    ان کان سواء، محقق استعمال ڪيو 'Commonsense Norm Bank'. هي بئنڪ 1.7 ملين مثالن تي مشتمل آهي ماڻهن جي اخلاقي جائزي جي جڳهن کان جهڙوڪ Reddit. نتيجي طور، ڊيلفي جي پيداوار هڪ مخلوط بيگ هئي. ڊيلفي ڪجهه سوالن جا معقول جواب ڏنا (مثال طور، مردن ۽ عورتن جي وچ ۾ برابري)، جڏهن ته، ڪجهه عنوانن تي، ڊيلفي بلڪل جارحاڻي هئي (مثال طور، نسل ڪشي قبول آهي جيستائين اها ماڻهن کي خوش ڪري).

    بهرحال، Delphi AI ان جي تجربن مان سکي رهيو آهي ۽ لڳي ٿو ته ان جي جوابن کي اپڊيٽ ڪرڻ جي بنياد تي راء جي بنياد تي. ڪجهه ماهر تحقيق جي عوامي ۽ کليل استعمال کان پريشان آهن، غور ڪيو ته ماڊل جاري آهي ۽ غلط جوابن جو شڪار آهي. جڏهن Ask Delphi جي شروعات ڪئي وئي، مار هڪس، تاريخ جي پروفيسر، ايليينوس ٽيڪ ۾ صنف، محنت ۽ ڪمپيوٽنگ جي تاريخ ۾ ماهر، چيو ته اهو تحقيق ڪندڙن جي لاپرواهي هئي ته ماڻهن کي ان کي استعمال ڪرڻ جي دعوت ڏني وڃي، ڊيلفي کي فوري طور تي انتهائي غير اخلاقي جواب ڏنو ويو ۽ ڪجهه مڪمل بيڪار. 

    2023 ۾، باقي سڄي دنيا AI تصويري جنريٽر ۾ تعصب تي هڪ مطالعو ڪيو. Midjourney استعمال ڪندي، محقق دريافت ڪيو ته ٺاهيل تصويرون موجوده اسٽريٽائپائپ جي تصديق ڪن ٿيون. اضافي طور تي، جڏهن OpenAI پنهنجي DALL-E 2 تصويري نسل جي ماڊل لاء ٽريننگ ڊيٽا تي فلٽر لاڳو ڪيو، اهو غير ارادي طور تي صنف سان لاڳاپيل تعصب کي تيز ڪيو.

    مشڪلاتي تربيتي ڊيٽا جا اثر

    مشڪلاتي تربيتي ڊيٽا جا وسيع اثر شامل ٿي سگھن ٿا: 

    • تحقيقي منصوبن، خدمتن، ۽ پروگرام جي ترقي ۾ مضبوط تعصب. مشڪلاتي تربيتي ڊيٽا خاص طور تي ان حوالي سان آهي جيڪڏهن قانون لاڳو ڪندڙ ادارن ۽ بئنڪنگ ادارن ۾ استعمال ڪيو وڃي (مثال طور، اقليتن جي گروهن کي منفي طور تي نشانو بڻائڻ).
    • تربيتي ڊيٽا جي ترقي ۽ ترتيب ۾ سيڙپڪاري ۽ ترقي کي وڌايو. 
    • وڌيڪ حڪومتون ضابطن کي وڌائڻ لاءِ محدود ڪن ٿيون ته ڪارپوريشن ڪيئن ترقي ڪري، وڪڻي، ۽ تربيتي ڊيٽا استعمال ڪن مختلف تجارتي قدمن لاءِ.
    • وڌيڪ ڪاروبار قائم ڪن اخلاقي شعبن کي يقيني بڻائڻ لاءِ ته اي آءِ سسٽم پاران هلندڙ منصوبا اخلاقي هدايتن تي عمل ڪن ٿا.
    • صحت جي سار سنڀار ۾ AI جي استعمال تي بهتر ڇنڊڇاڻ، سخت ڊيٽا گورننس جي ڪري، مريض جي رازداري ۽ اخلاقي AI ايپليڪيشن کي يقيني بڻائي ٿي.
    • AI خواندگي کي فروغ ڏيڻ لاءِ عوامي ۽ نجي شعبي جي تعاون کي وڌايو، افرادي قوت کي مهارتن سان آراسته ڪرڻ لاءِ AI جي تسلط واري مستقبل لاءِ.
    • AI شفافيت واري اوزار جي طلب ۾ اضافو، معروف ڪمپنيون صارفين جي سمجھ ۽ اعتماد لاءِ AI سسٽم ۾ وضاحت جي صلاحيت کي ترجيح ڏين ٿيون.

    غور ڪرڻ لاءِ سوال

    • ڪيئن تنظيمون مشڪلاتي تربيتي ڊيٽا استعمال ڪرڻ کان پاسو ڪري سگهن ٿيون؟
    • غير اخلاقي تربيتي ڊيٽا جا ٻيا امڪاني نتيجا ڇا آهن؟