د ستونزمن روزنې ډاټا: کله چې AI د تعصب ډیټا تدریس کیږي

د انځور کریډیټ:
د انځور کریډیټ
ایسته

د ستونزمن روزنې ډاټا: کله چې AI د تعصب ډیټا تدریس کیږي

د ستونزمن روزنې ډاټا: کله چې AI د تعصب ډیټا تدریس کیږي

فرعي سرلیک متن
د مصنوعي استخباراتو سیسټمونه کله ناکله د موضوعي معلوماتو سره معرفي کیږي چې کولی شي اغیزه وکړي چې دا څنګه عمل کوي او پریکړې کوي.
    • لیکونکی:
    • د لیکوال نوم
      Quantumrun وړاندوینه
    • د اکتوبر په 14، 2022

    د بصیرت لنډیز

    موږ هغه څه یو چې موږ یې زده کوو او داخلي یې؛ دا حکم د مصنوعي استخباراتو (AI) په اړه هم پلي کیږي. د ماشین زده کړې (ML) ماډلونه چې د نامکمل، تعصب او غیر اخلاقي معلوماتو سره تغذیه کیږي په نهایت کې به ستونزمن پریکړې او وړاندیزونه وکړي. دا ځواکمن الګوریتمونه بیا د کاروونکو اخلاق او انګیرنې اغیزه کولی شي که چیرې څیړونکي محتاط نه وي.

    د ستونزمن روزنې ډیټا شرایط

    د 2010 لسیزې راهیسې، د څیړنې ټیمونه د روزنې ډیټاسیټونو د غیر مناسب محتوياتو سره یا په غیر اخلاقي توګه راټول شوي کارولو لپاره څیړل شوي. د مثال په توګه، په 2016 کې، د مایکروسافټ MS-Celeb-1M ډیټابیس کې د 10 مختلفو مشهورو شخصیتونو 100,000 ملیون انځورونه شامل وو. په هرصورت، د نورو پلټنو پر مهال، خبریالانو وموندله چې ډیری عکسونه د عامو خلکو وو چې د مالک له رضایت یا پوهې پرته د مختلفو ویب پاڼو څخه ایستل شوي.

    د دې احساس سره سره، ډیټاسیټ د لوی شرکتونو لکه فیسبوک او سینس ټایم لخوا کارولو ته دوام ورکوي، د چین د مخ پیژندنې شرکت چې د دولتي پولیسو سره اړیکې لري. په ورته ډول ، یو ډیټا سیټ چې د ډیوک پوهنتون په کیمپس (DukeMTMC) کې د تګ خلکو عکسونه لري رضایت هم نه دی راټول کړی. په نهایت کې ، دواړه ډیټاسیټونه لرې شوي. 

    د ستونزمن روزنې ډیټا زیان رسونکي اغیزو روښانه کولو لپاره ، د میساچوسیټس ټیکنالوژۍ انسټیټیوټ (MIT) څیړونکو د نارمن په نوم یو AI رامینځته کړی چې دوی یې د فرعي ریډیټ څخه د عکس کیپشن کولو لپاره ښوونه کړي چې ګرافیک تاوتریخوالی یې روښانه کړی. ټیم بیا نورمن د عصبي شبکې په وړاندې ځای په ځای کړ چې د دودیزو معلوماتو په کارولو سره روزل شوي. څیړونکو دواړه سیسټمونه د Rorschach inkblots سره چمتو کړل او د AIs څخه یې وغوښتل چې هغه څه تشریح کړي چې دوی لیدلي. پایلې حیرانونکې وې: چیرې چې معیاري عصبي شبکې "د بیسبال دستکشې تور او سپین عکس" ولید، نورمن ولیدل "یو سړی د ورځې په رڼا کې د ماشین ټوپک لخوا وژل شوی." تجربې ښودلې چې AI په اوتومات ډول متعصب نه دی ، مګر دا د معلوماتو دننه کولو میتودونه او د دوی جوړونکي انګیزې کولی شي د AI چلند باندې د پام وړ اغیزه وکړي.

    ګډوډي اغیزې

    په 2021 کې، د AI لپاره د څیړنیزې موسسې الن انسټیټیوټ Ask Delphi، یو ML سافټویر رامینځته کړ چې په الګوریتمیک ډول د هرې اخلاقي پوښتنې ځوابونو لپاره ځوابونه رامینځته کوي. د پروژې تر شا څیړونکو ویلي چې AI په تدریجي ډول ډیر پیاوړی او پیژندل کیږي، نو ساینس پوهانو ته اړتیا لري چې د دې ML سیسټمونو اخلاقو درس ورکړي. د یونیکورن ML ماډل د ډیلفي بنسټ دی. دا د "عام احساس" استدلال ترسره کولو لپاره جوړ شوی و، لکه د متن تار ته ترټولو احتمالي پای غوره کول. 

    برسېره پر دې، څیړونکو د کامنسنس نورم بانک کارولی. دا بانک د Reddit په څیر ځایونو څخه د خلکو د اخلاقي ارزونو 1.7 ملیون مثالونه لري. د پایلې په توګه، د ډیلفي محصول یو مخلوط کڅوړه وه. ډیلفي ځینې پوښتنو ته په معقول ډول ځواب ورکړ (د بیلګې په توګه د نارینه او ښځو ترمنځ مساوات)، پداسې حال کې چې په ځینو موضوعاتو کې، ډیلفي په ښکاره ډول تیریدونکی و (د بیلګې په توګه، نسل وژنه د منلو وړ ده تر هغه چې خلک خوشحاله کړي).

    په هرصورت، Delphi AI د خپلو تجربو څخه زده کړه کوي او داسې ښکاري چې د فیډبیک پراساس خپل ځوابونه تازه کوي. ځینې ​​​​کارپوهان د څیړنې د عامه او خلاص کارولو له امله اندیښمن دي، په پام کې نیولو سره چې ماډل د پرمختګ په حال کې دی او د غلط ځوابونو سره مخ دی. کله چې د ډیلفي څخه وپوښتل شو، مار هیکس، د الینوس ټیک د تاریخ پروفیسور، د جنسیت، کار او کمپیوټر تاریخ کې تخصص درلود، وویل چې دا د څیړونکو غفلت و چې خلک یې د کارولو لپاره بلنه ورکړي، په پام کې نیولو سره ډیلفي سمدستي خورا غیر اخلاقي ځوابونه وړاندې کړل او ځینې یې بشپړ بې ځایه. 

    په 2023، د نړۍ پاتې برخه د AI عکس جنراتورونو کې د تعصب په اړه یوه مطالعه ترسره کړه. د Midjourney په کارولو سره، څیړونکو وموندله چې تولید شوي انځورونه د موجوده سټیریوټائپونو تصدیق کوي. برسېره پردې، کله چې OpenAI د خپل DALL-E 2 عکس تولید ماډل لپاره د روزنې ډیټا ته فلټرونه پلي کړل، دا په غیر ارادي ډول د جندر پورې اړوند تعصبونه پیاوړي کړل.

    د ستونزمن روزنیزو معلوماتو اغیزې

    د ستونزمن روزنې ډیټا پراخه اغیزې کېدای شي پدې کې شامل وي: 

    • د څیړنې په پروژو، خدماتو، او د پروګرام پراختیا کې تقویه شوي تعصبونه. د روزنې ستونزمن معلومات په ځانګړې توګه که د قانون پلي کولو او بانکدارۍ موسسو کې کارول کیږي (د بیلګې په توګه، د لږکیو ډلو په نښه کول).
    • د روزنې ډیټا په وده او ترتیب کې د پانګوونې او پراختیا زیاتوالی. 
    • ډیر حکومتونه مقررات زیاتوي ترڅو محدود کړي چې څنګه کارپوریشنونه وده کوي، پلوري، او د بیلابیلو سوداګریزو نوښتونو لپاره د روزنې ډاټا کاروي.
    • ډیر کاروبارونه د اخالقي څانګو رامینځته کوي ترڅو ډاډ ترلاسه کړي چې د AI سیسټمونو لخوا پرمخ وړل شوي پروژې اخلاقي لارښوونې تعقیبوي.
    • په روغتیایی پاملرنې کې د AI کارولو په اړه ګړندی تفتیش د ډیټا سختې حکومتولۍ لامل کیږي ، د ناروغ محرمیت او اخلاقي AI غوښتنلیک ډاډمن کوي.
    • د AI سواد زده کړې ته وده ورکولو لپاره د عامه او خصوصي سکتور همکارۍ زیاتول، د AI واکمن راتلونکي لپاره کاري ځواک په مهارتونو سمبالول.
    • د AI روڼتیا وسیلو لپاره د غوښتنې زیاتوالی ، مخکښ شرکتونه د مصرف کونکي پوهاوي او باور لپاره د AI سیسټمونو کې توضیحي وړتیا ته لومړیتوب ورکوي.

    د غور کولو لپاره پوښتنې

    • څنګه کولی شي سازمانونه د ستونزمن روزنې ډیټا کارولو څخه مخنیوی وکړي؟
    • د غیر اخلاقي روزنې ډیټا نورې احتمالي پایلې څه دي؟