د AI سمون: د مصنوعي استخباراتو اهدافو سره د انساني ارزښتونو سره سمون لري

د انځور کریډیټ:
د انځور کریډیټ
ایسته

د AI سمون: د مصنوعي استخباراتو اهدافو سره د انساني ارزښتونو سره سمون لري

د AI سمون: د مصنوعي استخباراتو اهدافو سره د انساني ارزښتونو سره سمون لري

فرعي سرلیک متن
ځینې ​​​​څیړونکي پدې باور دي چې اقدامات باید پلي شي ترڅو ډاډ ترلاسه شي چې مصنوعي استخبارات ټولنې ته زیان نه رسوي.
    • لیکونکی:
    • د لیکوال نوم
      Quantumrun وړاندوینه
    • د جنوري په 25، 2023

    مصنوعي استخبارات (AI) سمون هغه وخت دی چې د AI سیسټم اهداف د انساني ارزښتونو سره سمون لري. د OpenAI، DeepMind، او Anthropic په څیر شرکتونه د څیړونکو ټیمونه لري چې یوازینی تمرکز یې د مختلفو سناریوګانو لپاره د ساتونکو مطالعه کول دي په کوم کې چې دا پیښیږي.

    د AI سمون شرایط

    د کارنیل پوهنتون د 2021 څیړنې مطالعې په وینا ، ډیری مطالعاتو ښودلې چې د الګوریتم لخوا رامینځته شوي وسیلې یا ماډل د هغه معلوماتو څخه سرچینه اخستل شوي تعصب ښیې چې دوی روزل شوي. د بیلګې په توګه، د طبیعي ژبې پروسس کولو (NLP) کې، د محدودو ډیټا سیټونو په اړه روزل شوي NLP موډلونه مستند شوي چې د ښځو په وړاندې د زیان رسونکي جنډر سټیریوټایپونو پر بنسټ وړاندوینې کوي. په ورته ډول، نورو څیړنو وموندله چې د الګوریتمونو په اړه روزل شوي د لاسوهنې ډاټا په پایله کې د توکمیز تعصب وړاندیزونه، په ځانګړې توګه په پولیسو کې.

    ډیری مثالونه شتون لري چې د ماشین زده کړې سیسټم د لږکیو یا ډلو لپاره ډیر بد کار کړی چې د ډیری زیانونو سره مخ دي. په ځانګړې توګه، د مخ اتوماتیک تحلیل او د روغتیا پاملرنې تشخیص معمولا د ښځو او رنګ خلکو لپاره ډیر ښه کار نه کوي. کله چې انتقادي سیسټمونه چې د احساساتو پر ځای باید د حقایقو او منطق پراساس وي د روغتیا پاملرنې یا تعلیم تخصیص په څیر شرایطو کې کارول کیږي، دوی کولی شي د دې وړاندیزونو تر شا د دلیل پیژندل ستونزمن کولو سره ډیر زیان ورسوي.

    د پایلې په توګه، تخنیکي شرکتونه د AI تنظیم کولو ټیمونه رامینځته کوي ترڅو د الګوریتمونو عادلانه او انساني ساتلو باندې تمرکز وکړي. څیړنه د پرمختللو AI سیسټمونو سمت پوهیدو لپاره اړینه ده، په بیله بیا هغه ننګونې چې موږ یې د AI وړتیاو په وده کې مخ کیږو.

    ګډوډي اغیزې

    په OpenAI (2021) کې د AI الینمینټ مشر جان لییک په وینا، دې ته په پام سره چې د AI سیسټمونه یوازې په 2010 کې وړ شوي، دا د پوهیدو وړ ده چې د AI د سمون ډیری څیړنې تیوري - دروند دي. کله چې خورا پیاوړي AI سیسټمونه تنظیم شوي وي، یو له ننګونو څخه چې انسانان ورسره مخ دي دا دی چې دا ماشینونه ممکن داسې حلونه رامینځته کړي چې د بیاکتنې او ارزونې لپاره خورا پیچلي وي که چیرې دوی اخلاقي معنی ولري.

    لیک د دې ستونزې د حل لپاره د تکراري انعام ماډلینګ (RRM) ستراتیژي جوړه کړه. د RRM سره، ډیری "مرستندوی" AIs تدریس کیږي ترڅو د انسان سره مرسته وکړي چې ارزونه وکړي چې یو ډیر پیچلي AI څومره ښه ترسره کوي. هغه د یو څه رامینځته کولو امکان په اړه خوشبین دی چې هغه ورته د "سطح MVP" په توګه اشاره کوي. د پیل په شرایطو کې، MVP (یا لږترلږه ګټور محصول) ترټولو ساده ممکنه محصول دی چې یو شرکت کولی شي د یوې مفکورې ازموینې لپاره جوړ کړي. هیله دا ده چې یوه ورځ، AI د AI په څیړنه کې د انسان فعالیت سره سمون لري او د ارزښتونو سره سمون لري پداسې حال کې چې فعال وي.

    پداسې حال کې چې د AI په ترتیب کې د علاقې زیاتوالی خالص مثبت دی ، په ساحه کې ډیری شنونکي فکر کوي چې د AI په مخکښو لابراتوارونو کې د "اخلاق" ډیری کار یوازې عامه اړیکې دي چې ډیزاین شوي ترڅو تخنیکي شرکتونه ښه ښکاري او د منفي تبلیغاتو مخه ونیسي. دا اشخاص تمه نه کوي چې د اخلاقي پراختیا کړنې به هر وخت ژر د دې شرکتونو لپاره لومړیتوب شي.

    دا کتنې د ارزښت د سمون هڅو لپاره د انډول ډیسپلینري طریقو اهمیت په ګوته کوي، ځکه چې دا د اخلاقي او تخنیکي تحقیقاتو نسبتا نوې ساحه ده. د پوهې مختلفې څانګې باید د هر اړخیزې څیړنې اجنډا برخه وي. دا نوښت د ټیکنالوژیستانو او پالیسي جوړونکو اړتیا ته هم اشاره کوي چې د دوی ټولنیز شرایطو او شریکانو څخه خبر وي، حتی که د AI سیسټمونه نور هم پرمختللی شي.

    د AI د سمون اغیزې

    د AI سمون پراخې اغیزې کېدای شي پدې کې شامل وي: 

    • د مصنوعي استخباراتو لابراتوارونه د پروژو نظارت کولو او د AI اخلاقي لارښودونو پوره کولو لپاره مختلف اخلاقي بورډونه استخدام کوي. 
    • حکومتونه داسې قوانین رامینځته کوي چې شرکتونو ته اړتیا لري ترڅو خپل مسؤلیت AI چوکاټ وسپاري او دا چې دوی څنګه د دوی د AI پروژې نور پراختیا پلان کوي.
    • د استخدام، عامه څارنې، او د قانون پلي کولو کې د الګوریتم کارولو په اړه د شخړو زیاتوالی.
    • څیړونکي د اخالقي او کارپوریټ اهدافو ترمینځ د ګټو د شخړو له امله د لوی AI لابراتوارونو څخه ایستل شوي.
    • د حکومتونو لپاره د پرمختللي AI سیسټمونو تنظیم کولو لپاره ډیر فشار چې دواړه په زړه پوري ځواکمن دي مګر په احتمالي توګه د بشري حقونو سرغړونه کولی شي.

    د نظر ورکولو لپاره پوښتنې

    • شرکتونه څنګه کولی شي د AI سیسټمونو لپاره حساب ورکونکي شي چې دوی یې رامینځته کوي؟
    • نور احتمالي خطرونه کوم دي که چیرې د AI غلط تنظیم شتون ولري؟

    د بصیرت حوالې

    د دې بصیرت لپاره لاندې مشهور او بنسټیز لینکونه حواله شوي: