يورپ AI ضابطو: AI انسانيت کي رکڻ جي ڪوشش

تصويري ڪريڊٽ:
تصوير جي ڪريڊٽ
ايٽڪ

يورپ AI ضابطو: AI انسانيت کي رکڻ جي ڪوشش

سڀاڻي جي مستقبل لاءِ ٺهيل

Quantumrun Trends پليٽ فارم توهان کي بصيرت، اوزار، ۽ ڪميونٽي ڏيندو ته جيئن مستقبل جي رجحانن کي ڳولڻ ۽ ترقي ڪري.

خصوصي پيشڪش

$5 في مهيني

يورپ AI ضابطو: AI انسانيت کي رکڻ جي ڪوشش

ذيلي عنوان متن
يورپي ڪميشن جي مصنوعي ڄاڻ رکندڙ ريگيوليٽري پروپوزل جو مقصد AI جي اخلاقي استعمال کي فروغ ڏيڻ آهي.
    • الاهي:
    • ليکڪ جو نالو
      Quantumrun اڳڪٿي
    • جون 13، 2022

    بصيرت جو خلاصو

    يورپي ڪميشن (اي سي) مصنوعي ذهانت (AI) لاءِ اخلاقي معيار مقرر ڪرڻ لاءِ قدم کڻي رهي آهي، نگراني ۽ صارفين جي ڊيٽا جهڙن علائقن ۾ غلط استعمال کي روڪڻ تي ڌيان ڏيڻ. اهو قدم ٽيڪني صنعت ۾ بحث مباحثو ڪيو آهي ۽ آمريڪا سان متحد طريقي سان ٿي سگهي ٿو، عالمي اثر جو مقصد. بهرحال، ضابطا شايد اڻڄاتل نتيجا هوندا، جهڙوڪ مارڪيٽ جي مقابلي کي محدود ڪرڻ ۽ ٽيڪنالاجي شعبي ۾ نوڪري جا موقعا متاثر ڪرڻ.

    يورپي AI ضابطي جي حوالي سان

    EC فعال طور تي ڊيٽا جي رازداري ۽ آن لائن حقن جي حفاظت لاءِ پاليسيون ٺاهڻ تي ڌيان ڏئي رهيو آهي. تازو، هي ڌيان وڌايو ويو آهي AI ٽيڪنالاجيز جي اخلاقي استعمال کي شامل ڪرڻ لاء. EC مختلف شعبن ۾ AI جي امڪاني غلط استعمال جي باري ۾ ڳڻتي آهي، صارفين جي ڊيٽا گڏ ڪرڻ کان نگراني تائين. ائين ڪرڻ سان، ڪميشن جو مقصد AI اخلاقيات لاءِ هڪ معيار مقرر ڪرڻ آهي، نه رڳو EU اندر پر ممڪن طور تي باقي دنيا لاءِ هڪ نمونو.

    اپريل 2021 ۾، اي سي AI ايپليڪيشنن جي نگراني ڪرڻ جو مقصد قاعدن جو هڪ سيٽ جاري ڪندي هڪ اهم قدم کنيو. اهي ضابطا ٺاهيا ويا آهن AI جي استعمال کي روڪڻ لاءِ نگراني لاءِ، تعصب کي جاري رکڻ، يا حڪومتن يا تنظيمن پاران جابرانه ڪارناما. خاص طور تي، ضابطا AI سسٽم کي منع ڪن ٿا جيڪي ماڻهن کي جسماني يا نفسياتي طور تي نقصان پهچائي سگهن ٿيون. مثال طور، AI سسٽم جيڪي پوشیدہ پيغامن ذريعي ماڻهن جي رويي کي ترتيب ڏين ٿا، انهن جي اجازت ناهي، ۽ نه ئي اهي سسٽم جيڪي ماڻهن جي جسماني يا ذهني ڪمزورين جو استحصال ڪن ٿا.

    انهي سان گڏ، اي سي پڻ هڪ وڌيڪ سخت پاليسي ٺاهي آهي جنهن کي اهو سمجهي ٿو "وڏي خطري" AI سسٽم. اهي AI ايپليڪيشنون آهن جيڪي شعبن ۾ استعمال ٿين ٿيون جيڪي عوامي حفاظت ۽ خوشحالي تي ڪافي اثر رکن ٿيون، جهڙوڪ طبي ڊوائيس، حفاظتي سامان، ۽ قانون لاڳو ڪندڙ اوزار. پاليسي بيان ڪري ٿي سخت آڊيٽنگ گهرجون، هڪ منظوري وارو عمل، ۽ انهن سسٽم جي مقرر ٿيڻ کان پوءِ جاري نگراني. صنعتون جهڙوڪ بايوميٽرڪ سڃاڻپ، نازڪ انفراسٽرڪچر، ۽ تعليم پڻ هن ڇت هيٺ آهن. ڪمپنيون جيڪي انهن ضابطن جي تعميل ۾ ناڪام ٿين ٿيون انهن کي 32 ملين آمريڪي ڊالر تائين يا انهن جي عالمي سالياني آمدني جو 6 سيڪڙو تائين وڏي ڏنڊ کي منهن ڏيڻو پوي ٿو.

    خراب ڪندڙ اثر

    ٽيڪنالاجي انڊسٽري AI لاءِ اي سي جي ريگيوليٽري فريم ورڪ بابت خدشن جو اظهار ڪيو آهي، دليل ڏيندي چيو ته اهڙا ضابطا ٽيڪنالاجي ترقي کي روڪي سگهن ٿا. نقادن نشاندهي ڪن ٿا ته فريم ورڪ ۾ ”وڏي خطري“ اي آئي سسٽم جي تعريف واضح نه آهي. مثال طور، وڏيون ٽيڪني ڪمپنيون جيڪي AI استعمال ڪن ٿيون سوشل ميڊيا الگورٿمز يا ٽارگيٽ ڪيل اشتهارن کي "هاءِ خطري" جي طور تي درجه بندي نه ڪيو ويو آهي، ان حقيقت جي باوجود ته اهي ايپليڪيشنون مختلف سماجي مسئلن جهڙوڪ غلط معلومات ۽ پولرائزيشن سان ڳنڍيل آهن. اي سي ان جو ڳڻپ ڪندي اهو ٻڌائي ٿو ته هر يورپي يونين جي ملڪ اندر قومي نگران ايجنسين کي حتمي چوڻ هوندو ته ڇا هڪ اعليٰ خطري واري درخواست ٺاهي ٿي ، پر اهو طريقو ميمبر رياستن ۾ تضاد جو سبب بڻجي سگهي ٿو.

    يورپي يونين (EU) اڪيلائي ۾ ڪم نه ڪري رهيو آهي؛ ان جو مقصد AI اخلاقيات لاءِ عالمي معيار قائم ڪرڻ لاءِ آمريڪا سان تعاون ڪرڻ آهي. يو ايس سينيٽ جو اسٽريٽجڪ مقابلي وارو ايڪٽ ، اپريل 2021 ۾ جاري ڪيو ويو ، ”ڊجيٽل آمريت پسندي“ کي منهن ڏيڻ لاءِ بين الاقوامي تعاون جو مطالبو پڻ ڪري ٿو ، چين جي وڏي نگراني لاءِ بايوميٽرڪ جي استعمال وانگر مشقن جو هڪ پردو حوالو. هي ٽرانسلانٽڪ پارٽنرشپ عالمي AI اخلاقيات لاءِ سر مقرر ڪري سگهي ٿي، پر اهو پڻ سوال اٿاري ٿو ته اهڙي معيار کي پوري دنيا ۾ ڪيئن لاڳو ڪيو ويندو. ڇا ملڪ جيڪي ڊيٽا جي رازداري ۽ انفرادي حقن تي مختلف نظرين سان گڏ هوندا، جهڙوڪ چين ۽ روس، انهن هدايتن تي عمل ڪندا، يا اهو اي اي اخلاقيات جو هڪ ٽڪرا ٽڪرا منظر ٺاهيندو؟

    جيڪڏهن اهي ضابطا 2020 جي ڏهاڪي جي وچ ۾ قانون بڻجي وڃن ٿا، اهي يورپي يونين ۾ ٽيڪنالاجي صنعت ۽ افرادي قوت تي اثر انداز ٿي سگهن ٿا. EU ۾ ڪم ڪندڙ ڪمپنيون شايد انهن ريگيوليٽري تبديلين کي عالمي سطح تي لاڳو ڪرڻ جو انتخاب ڪري سگھن ٿيون، انهن جي پوري آپريشن کي نئين معيار سان ترتيب ڏيڻ. جڏهن ته، ڪجهه تنظيمون شايد ضابطن کي تمام گهڻو بوجھل ڳولي سگهن ٿيون ۽ مڪمل طور تي يورپي يونين مارڪيٽ مان نڪرڻ جو انتخاب ڪن ٿيون. ٻنهي منظرنامي ۾ EU جي ٽيڪنيڪي شعبي ۾ روزگار جا اثر هوندا. مثال طور، ڪمپنين جي وڏي پيماني تي نڪرڻ نوڪري جي نقصان جو سبب بڻجي سگهي ٿي، جڏهن ته يورپي يونين جي معيار سان عالمي ترتيب ڏئي سگهي ٿي يورپي يونين جي بنياد تي ٽيڪني ڪردار کي وڌيڪ خاص ۽ ممڪن طور تي وڌيڪ قيمتي.

    يورپ ۾ وڌندڙ AI ضابطن لاءِ اثر

    اي سي جو وسيع اثر جيڪو تيزيءَ سان AI کي ريگيولر ڪرڻ چاهي ٿو ان ۾ شامل ٿي سگھي ٿو:

    • EU ۽ US AI ڪمپنين لاءِ هڪ باهمي سرٽيفڪيشن معاهدو ٺاهي رهيا آهن، اخلاقي معيارن جو هڪ هموار ٿيل سيٽ جنهن جي ڪمپنين کي پيروي ڪرڻ گهرجي، انهن جي جاگرافيائي مقام جي لحاظ کان.
    • AI آڊيٽنگ جي خاص فيلڊ ۾ واڌ، نئين ضابطن جي تعميل کي يقيني بڻائڻ لاءِ پرائيويٽ فرمز ۽ سرڪاري شعبن جي وچ ۾ تعاون وڌائڻ سان.
    • ترقي پذير دنيا مان قومون ۽ ڪاروبار ڊجيٽل خدمتن تائين رسائي حاصل ڪن ٿيون جيڪي اخلاقي AI معيارن تي عمل ڪن ٿيون جيڪي مغربي قومن پاران مقرر ڪيا ويا آهن، ممڪن طور تي انهن خدمتن جي معيار ۽ حفاظت کي بلند ڪن ٿا.
    • ڪاروباري ماڊل ۾ هڪ تبديلي اخلاقي AI عملن کي اوليت ڏيڻ لاءِ، صارفين کي متوجه ڪرڻ جيڪي ڊيٽا جي رازداري ۽ اخلاقي ٽيڪنالاجي جي استعمال جي باري ۾ وڌندڙ فڪرمند آهن.
    • حڪومتون AI کي عوامي خدمتن ۾ اختيار ڪن ٿيون جهڙوڪ صحت جي سار سنڀار ۽ ٽرانسپورٽ ۾ وڌيڪ اعتماد سان، اهو ڄاڻڻ ته اهي ٽيڪنالاجيون سخت اخلاقي معيارن سان ملن ٿيون.
    • تعليمي پروگرامن ۾ وڌندڙ سيڙپڪاري اخلاقي AI تي مرکوز، ٽيڪنالاجي جي هڪ نئين نسل کي ٺاهيندي جيڪي AI صلاحيتن ۽ اخلاقي خيالات ٻنهي ۾ چڱي ريت واقف آهن.
    • ننڍڙن ٽيڪنيڪي شروعاتين کي ريگيوليٽري تعميل جي اعلي قيمتن جي ڪري داخلا ۾ رڪاوٽون منهن ڏيڻ، امڪاني طور تي مقابلو ڪرڻ ۽ مارڪيٽ جي استحڪام جي ڪري.

    غور ڪرڻ لاءِ سوال

    • ڇا توهان يقين ڪيو ٿا ته حڪومتن کي AI ٽيڪنالاجيز کي منظم ڪرڻ گهرجي ۽ انهن کي ڪيئن لڳايو وڃي ٿو؟
    • ٽيڪنالوجي جي صنعت جي اندر ضابطي ۾ اضافو ڪيئن ٿي سگھي ٿو شعبي ۾ ڪمپنيون ڪم ڪرڻ جي طريقي سان؟ 

    بصيرت جا حوالا

    هيٺ ڏنل مشهور ۽ ادارتي لنڪ هن بصيرت لاء حوالو ڏنو ويو آهي:

    سينٽر فار اسٽريٽجڪ اينڊ انٽرنيشنل اسٽڊيز AI ضابطو: يورپ جي تازي تجويز آمريڪا لاءِ ويڪ اپ ڪال آهي