AI ترتيب: مصنوعي ذهانت جا مقصد انساني قدرن سان ملن ٿا

تصويري ڪريڊٽ:
تصوير جي ڪريڊٽ
ايٽڪ

AI ترتيب: مصنوعي ذهانت جا مقصد انساني قدرن سان ملن ٿا

AI ترتيب: مصنوعي ذهانت جا مقصد انساني قدرن سان ملن ٿا

ذيلي عنوان متن
ڪجهه محققن جو خيال آهي ته مصنوعي ذهانت کي يقيني بڻائڻ لاءِ قدمن تي عمل ٿيڻ گهرجي سماج کي نقصان نه پهچائي.
    • الاهي:
    • ليکڪ جو نالو
      Quantumrun اڳڪٿي
    • جنوري 25، 2023

    مصنوعي ذهانت (AI) ترتيب تڏهن آهي جڏهن هڪ AI سسٽم جا مقصد انساني قدرن سان ملن ٿا. ڪمپنيون جهڙوڪ OpenAI، DeepMind، ۽ Anthropic وٽ محققن جون ٽيمون آهن جن جو واحد ڌيان مختلف منظرنامي لاءِ گارڊ ريلز جو مطالعو ڪرڻ آهي جنهن ۾ اهو ٿي سگهي ٿو.

    AI ترتيب جي حوالي سان

    2021 يونيورسٽي آف ڪارنيل ريسرچ ريسرچ جي مطابق، ڪيترن ئي مطالعي مان اهو ظاهر ڪيو ويو آهي ته آلگورٿمز پاران ٺاهيل اوزار يا ماڊل انهن ڊيٽا مان حاصل ڪيل تعصب کي ظاهر ڪن ٿا جن تي انهن کي تربيت ڏني وئي هئي. مثال طور، قدرتي ٻولي پروسيسنگ (NLP) ۾، محدود ڊيٽا سيٽن تي تربيت يافته NLP ماڊلز کي دستاويز ڪيو ويو آهي جيڪي عورتن جي خلاف نقصانڪار صنفي اسٽريائپائپس جي بنياد تي اڳڪٿيون ڪندا آهن. اهڙي طرح، ٻين مطالعي مان معلوم ٿئي ٿو ته الورورٿمس تي تربيت ٿيل ڊيٽا سيٽ جي نتيجي ۾ نسلي طور تي باصلاحيت سفارشون، خاص طور تي پوليسنگ ۾.

    اهڙا ڪيترائي مثال آهن جن ۾ مشين لرننگ سسٽم اقليتن يا گروهن لاءِ وڌيڪ خراب ڪم ڪيو آهي جيڪي ڪيترن ئي نقصانن ۾ مبتلا آهن. خاص طور تي، خودڪار منهن جو تجزيو ۽ صحت جي سار سنڀار جي تشخيص عام طور تي عورتن ۽ رنگ جي ماڻهن لاء تمام سٺو ڪم نه ڪندا آهن. جڏهن نازڪ نظام جيڪي جذبات جي بدران حقيقتن ۽ منطق تي ٻڌل هجن انهن کي صحت يا تعليم مختص ڪرڻ جي حوالي سان استعمال ڪيو وڃي، اهي انهن سفارشن جي پويان دليل کي سڃاڻڻ ۾ سختي سان وڌيڪ نقصان پهچائي سگهن ٿا.

    نتيجي طور، ٽيڪني ڪمپنيون ٺاهي رهيا آهن AI ترتيب ڏيڻ واريون ٽيمون الگورتھم کي منصفانه ۽ انساني رکڻ تي ڌيان ڏيڻ لاء. تحقيق ضروري آھي سمجھڻ لاءِ ھدايت کي سمجھڻ لاءِ ترقي يافته AI سسٽم، ۽ گڏوگڏ چيلينج جيڪي اسان کي منهن ڏئي سگھون ٿا جيئن AI صلاحيتون وڌيون.

    خراب ڪندڙ اثر

    OpenAI (2021) ۾ AI alignment جي سربراه Jan Leike جي مطابق، AI سسٽم صرف 2010s ۾ قابل ٿي چڪا آھن، اھو سمجھڻ جي قابل آھي ته AI الائنمينٽ جي اڪثر تحقيق ٿيوري-بھاري رھي آھي. جڏهن انتهائي طاقتور AI سسٽم جوڙيا ويندا آهن، انهن مان هڪ چيلينج جنهن کي انسان منهن ڏئي ٿو اهو آهي ته اهي مشينون حل ٺاهي سگهن ٿيون جيڪي جائزو وٺڻ ۽ جائزو وٺڻ لاء تمام پيچيده آهن جيڪڏهن اهي اخلاقي طور تي سمجهندا آهن.

    Leike هن مسئلي کي حل ڪرڻ لاء هڪ ورهاست انعام ماڊلنگ (RRM) حڪمت عملي ٺاهي. RRM سان، ڪيترن ئي ”مددگار“ AIs کي سيکاريو ويندو آهي ته جيئن انسان کي اهو اندازو لڳايو وڃي ته هڪ وڌيڪ پيچيده AI ڪيتري سٺي نموني ڪم ڪري ٿي. هو ڪجهه ٺاهڻ جي امڪان جي باري ۾ پراميد آهي جنهن کي هو "سياري MVP" جي طور تي حوالو ڏئي ٿو. شروعاتي شرطن ۾، هڪ MVP (يا گهٽ ۾ گهٽ قابل عمل پراڊڪٽ) هڪ آسان ترين ممڪن پراڊڪٽ آهي جيڪا ڪمپني ٺاهي سگهي ٿي هڪ خيال کي جانچڻ لاءِ. اميد اها آهي ته ڪنهن ڏينهن، AI انساني ڪارڪردگي سان AI جي تحقيق ۾ ۽ ان جي ترتيب سان قدرن سان ملائي ٿي جڏهن ته ڪارڪردگي پڻ.

    جڏهن ته AI ترتيب ۾ دلچسپي وڌائڻ خالص مثبت آهي، فيلڊ ۾ ڪيترن ئي تجزيه نگارن جو خيال آهي ته گهڻو ڪري "اخلاقيات" جو ڪم معروف AI ليبز ۾ صرف عوامي تعلقات آهي ته جيئن ٽيڪ ڪمپنيون سٺيون نظر اچن ۽ منفي پبلسٹی کان بچڻ لاء. اهي ماڻهو توقع نٿا ڪن ته اخلاقي ترقي جا طريقا انهن ڪمپنين لاءِ ترجيح بڻجي ويندا ڪنهن به وقت جلد.

    اهي مشاهدو قدر جي ترتيب ڏيڻ جي ڪوششن لاءِ بين الضابطه طريقن جي اهميت کي اجاگر ڪن ٿا، ڇاڪاڻ ته هي اخلاقي ۽ ٽيڪنيڪل تحقيق جو نسبتاً نئون علائقو آهي. علم جي مختلف شاخن کي هڪ جامع تحقيقي ايجنڊا جو حصو هجڻ گهرجي. اها شروعات ٽيڪنالاجي ماهرن ۽ پاليسي سازن جي ضرورت ڏانهن پڻ اشارو ڪري ٿي ته هو انهن جي سماجي حوالي سان ۽ اسٽيڪ هولڊرز کان باخبر رهن، ايستائين جو AI سسٽم وڌيڪ ترقي يافته بڻجي وڃن.

    AI ترتيب ڏيڻ جا اثر

    AI ترتيب جي وسيع اثرن ۾ شامل ٿي سگھي ٿو: 

    • مصنوعي ذهانت ليبارٽريون مختلف اخلاقي بورڊن کي ڀرتي ڪري رهيون آهن منصوبن جي نگراني ڪرڻ ۽ اخلاقي AI هدايتن کي پورو ڪرڻ لاءِ. 
    • حڪومتون قانون ٺاهينديون آهن جيڪي ڪمپنين کي پنهنجو ذميوار AI فريم ورڪ جمع ڪرڻ جي ضرورت هونديون آهن ۽ اهي ڪيئن ٺاهيندا آهن انهن جي AI منصوبن کي اڳتي وڌائڻ لاءِ.
    • ڀرتي، عوامي نگراني، ۽ قانون لاڳو ڪرڻ ۾ الگورتھم جي استعمال تي تڪرار وڌايو.
    • اخلاقيات ۽ ڪارپوريٽ مقصدن جي وچ ۾ دلچسپي جي تضاد جي ڪري محققن کي وڏي AI ليبز مان ڪڍيو پيو وڃي.
    • حڪومتن تي وڌيڪ دٻاءُ آهي ته ترقي يافته AI سسٽم کي منظم ڪن جيڪي ٻئي ناقابل يقين حد تائين طاقتور آهن پر ممڪن طور تي انساني حقن جي ڀڃڪڙي ڪري سگهن ٿيون.

    تبصرو ڪرڻ لاء سوال

    • ڪمپنيون ڪيئن ٺاهي سگھجن ٿيون انهن جي ٺاهيل AI سسٽم لاءِ جوابدار؟
    • ٻيا امڪاني خطرا ڇا آهن جيڪڏهن اتي AI غلط ترتيب آهي؟