څنګه انسانان به د مصنوعي سوپر انټلیجنس په وړاندې دفاع وکړي: د مصنوعي استخباراتو راتلونکی P5

د انځور کریډیټ: Quantumrun

څنګه انسانان به د مصنوعي سوپر انټلیجنس په وړاندې دفاع وکړي: د مصنوعي استخباراتو راتلونکی P5

    کال 65,000 BCE دی، او په توګه تیلوکولوتاسو او ستاسو ډول د لرغوني آسټرالیا لوی ښکار یاست. تاسو په آزاده توګه په ځمکه کې ګرځیدلې او د هغه ملګري ښکار او ښکار سره چې ستاسو تر څنګ ځمکه یې اشغال کړې وه په توازن کې ژوند کاوه. موسمونو بدلون راوست، مګر د حیواناتو په سلطنت کې ستاسو حیثیت تر هغه وخته پورې چې تاسو او ستاسو پلرونه یې په یاد ولرئ، ننګونې پاتې نه وې. بیا یوه ورځ نوي کسان راڅرګند شول.

    اوازې دي چې دوی د اوبو د لوی دیوال څخه راوتلي ، مګر دا مخلوقات په ځمکه کې ژوند کولو ته ډیر راحته ښکاري. تاسو باید دا مخلوقات د ځان لپاره وګورئ.

    دا یو څو ورځې ونیولې، مګر تاسو په پای کې ساحل ته ورسیدل. په اسمان کې اور لګیدلی و، د دې مخلوقاتو د جاسوسۍ لپاره یو مناسب وخت، شاید حتی د خوړلو هڅه وکړئ ترڅو وګورئ چې دوی څنګه خوند لري.

    تاسو یو ځای ونیسئ.

    دا په دوو پښو ولاړ و او ویښته یې نه درلوده. دا کمزوری ښکاریده. بې اثره. په سختۍ سره د هغه ویره ارزښت نلري چې دا د سلطنت په مینځ کې رامینځته کوي.

    تاسو په احتیاط سره خپل چلند پیل کړئ لکه څنګه چې شپه رڼا تعقیبوي. تاسو نږدې کېږئ. بیا تاسو یخ کړئ. لوړ غږونه اوریدل کیږي او بیا څلور نور د هغې تر شا د ځنګل څخه راڅرګندیږي. څو تنه شته؟

    مخلوق د ونې په کرښه کې نور تعقیبوي، او تاسو تعقیب کوئ. او هرڅومره چې تاسو کوئ ، نو ډیر عجیب غږونه تاسو اورئ تر هغه چې تاسو د دې مخلوقاتو څخه نور هم ومومئ. تاسو په فاصله کې تعقیب کوئ ځکه چې دوی د ځنګل څخه د ساحل په واسطه پاکولو ته ځي. د دوی ډیری شتون لري. مګر ډیر مهم، دوی ټول په آرامۍ سره د اور په شاوخوا کې ناست دي.

    تاسو دا اورونه مخکې لیدلي دي. د ګرمۍ په موسم کې به کله کله په اسمان کې اور به ځمکې ته راتلل او ټول ځنګلونه به یې سوځول. دا مخلوقات، له بلې خوا، دوی په یو ډول کنټرول درلود. کوم ډول مخلوق کولی شي دا ډول ځواک ولري؟

    تاسو فاصله وګورئ. نور د اوبو لوی دیوال ته راځي.

    تاسو یو ګام بیرته واخلئ.

    دا مخلوقات په سلطنت کې د نورو په څیر ندي. دوی په بشپړه توګه نوي دي.

    تاسو پریکړه وکړئ چې پریږدئ او خپلو خپلوانو ته خبرداری ورکړئ. که د دوی شمیر خورا لوی شي، څوک پوهیږي چې څه پیښیږي.

    ***

    داسې انګیرل کیږي چې Thylacoleo د اسټرالیا په لویه وچه کې د نورو میګافاونا اکثریت سره د انسانانو له رارسیدو وروسته نسبتا لنډ وخت له مینځه تللی. بل هیڅ د تی لرونکو ښکارانو ځای نه دی اخیستی - دا پرته لدې چې تاسو په دې کټګورۍ کې انسانان ونه شمیرئ.

    د دې تمثیل مخه نیول د دې لړۍ څپرکي تمرکز دی: ایا راتلونکی مصنوعي سوپر انټیلیجنس (ASI) به موږ ټول په بیټرۍ بدل کړي او بیا به موږ په میټریکس کې ونښلوي یا به انسانان د سای فای قرباني کیدو څخه مخنیوي لپاره یوه لاره ومومي. AI د قیامت دسیسه؟

    تر اوسه پورې زموږ په لړۍ کې د مصنوعي استخباراتو راتلونکې، موږ د AI ټول ډولونه سپړلي دي ، پشمول د AI د یو ځانګړي شکل مثبت ظرفیت ، ASI: یو مصنوعي وجود چې راتلونکی استخبارات به یې موږ په پرتله د میږیانو په څیر وښیي.

    مګر څوک باید ووایی چې دا هوښیار به د تل لپاره د انسانانو امرونه ومني. موږ به څه وکړو که شیان جنوب ته لاړ شي؟ موږ به څنګه د یوه بدمعاش ASI په وړاندې دفاع وکړو؟

    په دې څپرکي کې، موږ به جعلي هایپ له مینځه یوسو - لږترلږه لکه څنګه چې دا د 'انسان د ورکیدو کچې' خطرونو پورې اړه لري - او د نړۍ حکومتونو ته د ځان د دفاع حقیقي اختیارونو باندې تمرکز کوو.

    ایا موږ کولی شو د مصنوعي سوپر استخباراتو په اړه ټولې نورې څیړنې ودروو؟

    د احتمالي خطرونو په پام کې نیولو سره چې ASI انسانیت ته رامینځته کولی شي ، د پوښتنې لپاره لومړۍ څرګنده پوښتنه دا ده: ایا موږ نشو کولی په AI کې ټولې نورې څیړنې ودروو؟ یا لږترلږه د کومې څیړنې مخه ونیسئ چې ممکن موږ په خطرناک ډول د ASI رامینځته کولو ته نږدې کړو؟

    لنډ ځواب: نه.

    اوږد ځواب: راځئ چې مختلف لوبغاړو ته وګورو چې دلته ښکیل دي.

    د څیړنې په کچه، نن ورځ د نړۍ په ګوټ ګوټ کې د ډیرو ډیرو پیلونو، شرکتونو او پوهنتونونو څخه د AI څیړونکي شتون لري. که یو شرکت یا هیواد پریکړه وکړي چې د دوی د AI څیړنې هڅې محدودې کړي، دوی به په ساده ډول په بل ځای کې دوام وکړي.

    په ورته وخت کې ، د سیارې خورا قیمتي شرکتونه د دوی ځانګړي سوداګرۍ ته د AI سیسټمونو پلي کولو څخه خپل برخلیک جوړوي. له دوی څخه غوښتنه کول چې د دوی د AI وسیلو پراختیا ودروي یا محدود کړي د دوی څخه غوښتنه کوي چې د دوی راتلونکي وده ودروي یا محدود کړي. په مالي توګه، دا به د دوی اوږدمهاله سوداګرۍ ګواښي. په قانوني توګه، شرکتونه د خپلو شریکانو لپاره په دوامداره توګه د ارزښت رامینځته کولو لپاره د اعتبار وړ مسؤلیت لري؛ دا پدې مانا ده چې هر هغه عمل چې د دې ارزښت وده محدودوي کولی شي د محاکمې لامل شي. او که کوم سیاستوال د AI څیړنې محدودولو هڅه کړې ، نو دا لوی شرکتونه به د دوی ذهن یا د دوی د همکارانو ذهن بدلولو لپاره د لابی کولو لازمي فیسونه ورکړي.

    د جګړې لپاره، لکه څنګه چې په ټوله نړۍ کې تروریستانو او د آزادۍ جنګیالیو د غوره تمویل شوي اردو سره د مبارزې لپاره چریکي تاکتیکونه کارولي، کوچني هیوادونه به د لویو هیوادونو په وړاندې د ورته تاکتیکي ګټې په توګه د AI کارولو هڅونه ولري چې ممکن یو شمیر نظامي ګټې ولري. په ورته ډول، د لوړ پوړو پوځیانو لپاره، لکه د متحده ایالاتو، روسیې او چین پورې اړه لري، د پوځي ASI جوړول ستاسو په جیب کې د اټومي وسلو د وسلو سره مساوي دي. په بل عبارت، ټول پوځونه به د AI تمویل ته دوام ورکړي ترڅو په راتلونکي کې اړونده پاتې شي.

    د حکومتونو په اړه څنګه؟ په ریښتیا سره، ډیری سیاستوال پدې ورځو کې (2018) له ټیکنالوژیکي پلوه بې سواده دي او لږ پوهه لري چې AI څه شی دی یا د هغې راتلونکي احتمال - دا دوی د کارپوریټ ګټو لخوا اداره کول اسانه کوي.

    او په نړیواله کچه، په پام کې ونیسئ چې د 2015 لاسلیک کولو لپاره د نړۍ حکومتونو قانع کول څومره ستونزمن وو د پاریس تړون د اقلیم د بدلون سره د مبارزې لپاره - او یوځل چې لاسلیک شو، ډیری مکلفیتونه حتی پابند نه وو. نه یوازې دا، د اقلیم بدلون یوه مسله ده چې خلک په فزیکي توګه په نړیواله کچه د مخ په زیاتیدونکي او سخت موسم پیښو له لارې تجربه کوي. اوس، کله چې د AI محدودیتونو سره موافقې په اړه وغږیږئ، دا یوه مسله ده چې په لویه کچه د خلکو لپاره نه لیدل کیږي او په سختۍ سره د پوهیدو وړ ده، نو د AI محدودولو لپاره د هر ډول 'پاریس تړون' لپاره د پیرود ترلاسه کولو لپاره ښه بخت.

    په بل عبارت، د خپلو پایونو لپاره د AI تحقیق کولو لپاره ډیرې ګټې شتون لري ترڅو د هرې څیړنې مخه ونیسي چې په پای کې د ASI لامل کیدی شي. 

    ایا موږ کولی شو مصنوعي سپیڅلي پوهه بنده کړو؟

    بله معقوله پوښتنه دا ده چې ایا موږ کولی شو یو ASI پنجره یا کنټرول کړو کله چې موږ په لازمي ډول یو جوړ کړو؟ 

    لنډ ځواب: بیا، نه.

    اوږد ځواب: ټیکنالوژي نشي ساتل کیدی.

    د یو لپاره، یوازې په نړۍ کې د زرګونو څخه تر ملیونونو ویب جوړونکو او کمپیوټر ساینس پوهانو ته پام وکړئ چې په دوامداره توګه نوي سافټویر یا د موجوده سافټویر نوې نسخې جوړوي. ایا موږ کولی شو په صادقانه ډول ووایو چې د دوی هر یو سافټویر خپرونه 100 سلنه بګ فری دی؟ دا کیګونه هغه څه دي چې مسلکي هیکران د ملیونونو کریډیټ کارت معلوماتو غلا کولو یا د هیوادونو محرم رازونه کاروي — او دا انساني هیکران دي. د ASI لپاره، داسې انګیرل چې دا د ډیجیټل پنجرې څخه د تیښتې لپاره هڅونه درلوده، نو د سافټویر له لارې د کیګونو موندلو او ماتولو پروسه به هوا وي.

    مګر حتی که د AI څیړنې ټیم د ASI د بکس کولو لپاره یوه لاره معلومه کړي، دا پدې معنی ندي چې راتلونکي 1,000 ټیمونه به دا هم معلومه کړي یا د هغې کارولو لپاره هڅول کیږي.

    دا به ملیاردونه ډالر او شاید حتی لسیزې وخت ونیسي چې ASI رامینځته کړي. هغه شرکتونه یا حکومتونه چې دا ډول پیسې او وخت پانګونه کوي د دوی پانګوونې کې د پام وړ بیرته ستنیدو تمه لري. او د ASI لپاره چې دا ډول بیرته راستنیدنه چمتو کړي - که دا د سټاک بازار لوبه وي یا د ملیارد ډالرو نوي محصول ایجاد کړي یا د لوی اردو سره د مبارزې لپاره ګټونکي ستراتیژي پلان کړي - دا به لوی ډیټا سیټ یا حتی انټرنیټ ته وړیا لاسرسي ته اړتیا ولري. پخپله د دې بیرته تولید لپاره.

    او یوځل چې یو ASI د نړۍ شبکې ته لاسرسی ومومي ، هیڅ تضمین شتون نلري چې موږ یې بیرته په خپله پنجره کې ډک کړو.

    ایا مصنوعي سپیڅلی پوهه کولی شي ښه وي؟

    همدا اوس، د AI څیړونکي د ASI د بد کیدو په اړه اندیښنه نلري. ټول بد، د AI سای فای ټراپ یوازې د انسان انټروپومورفیز دی. راتلونکی ASI به نه ښه وي یا بد - د انسان مفکورې - یوازې اخلاقي.

    بیا طبیعي انګیرنه دا ده چې د دې خالي اخلاقي سلیټ په پام کې نیولو سره، د AI څیړونکي کولی شي د ASI لومړني اخالقي کوډونو ته برنامه وکړي چې زموږ د خپل سره سمون لري ترڅو دا په موږ باندې د ټرمینیټرونو خلاصولو یا موږ ټول د میټریکس بیټرۍ ته نه رسوي.

    مګر دا انګیرنه په ثانوي انګیرنه کې رامینځته کوي چې د AI څیړونکي هم د اخلاقو ، فلسفې او ارواپوهنې ماهرین دي.

    په حقیقت کې، ډیری یې نه دي.

    د ادراکي ارواپوه او لیکوال سټیون پنکر په وینا، دا حقیقت پدې معنی دی چې د اخالقي کوډ کولو دنده په مختلفو لارو غلط کیدی شي.

    د مثال په توګه، حتی د غوره ارادې لرونکي AI څیړونکي ممکن په غیر ارادي ډول د ASI ضعیف فکري اخالقي کوډونو ته کوډ کړي چې په ځینو سناریوګانو کې د ASI لامل کیدی شي د سوسیوپیت په څیر عمل وکړي.

    په ورته ډول، یو مساوي احتمال شتون لري چې د AI څیړونکی د اخالقي کوډونو پروګرام کوي چې د څیړونکي طبیعي تعصبونه پکې شامل دي. د مثال په توګه، ASI به څنګه چلند وکړي که چیرې اخلاق د محافظه کار او لیبرال لید څخه اخیستل شوي وي، یا د بودایی او عیسوي یا اسلامي دود څخه اخیستل شوي وي؟

    زه فکر کوم چې تاسو دا مسله دلته ګورئ: د انساني اخلاقو نړیوال سیټ شتون نلري. که موږ غواړو چې زموږ ASI د اخلاقي کوډ له مخې عمل وکړي، دا به له کوم ځای څخه راشي؟ موږ کوم قواعد شامل او خارج کوو؟ څوک پریکړه کوي؟

    یا راځئ چې ووایو چې دا AI څیړونکي یو ASI رامینځته کوي چې د نن ورځې عصري کلتوري نورمونو او قوانینو سره په بشپړ ډول مطابقت لري. بیا موږ دا ASI ګمارو ترڅو فدرالي، ایالتي/ولایتي او د ښاروالۍ بیوروکراسي سره مرسته وکړي چې دا نورمونه او قوانین په ښه توګه کار وکړي او په ښه توګه پلي کړي (د ASI لپاره احتمالي کارونې قضیه). ښه، څه پیښیږي کله چې زموږ کلتور بدل شي؟

    تصور وکړئ چې ASI د مینځنۍ اروپا (1300-1400s) په جریان کې د کاتولیک کلیسا لخوا د خپل ځواک په لوړوالي کې رامینځته شوی و چې هدف یې د کلیسا سره د نفوس اداره کولو کې مرسته کول او د هغه وخت مذهبي عقیدې ته سخت اطاعت یقیني کول دي. پیړۍ وروسته، آیا ښځې به د نن ورځې په څیر د ورته حقونو څخه برخمن وي؟ ایا اقلیتونه به خوندي شي؟ ایا د بیان آزادۍ ته وده ورکول کیدی شي؟ ایا د کلیسا او دولت جلا کول به پلي شي؟ عصري ساینس؟

    په بل عبارت، ایا موږ غواړو چې راتلونکی د نن ورځې اخلاقو او رواجونو ته قید کړو؟

    یو بدیل لاره هغه ده چې د کولین الن لخوا شریکه شوې، د کتاب شریک لیکوال، اخلاقي ماشینونه: روبوټ ته له غلط څخه سم درس ورکول. د دې پر ځای چې د سختو اخلاقي قواعدو د کوډ کولو هڅه وکړو، موږ ASI لرو چې د نورو سره د تجربې او تعامل له لارې په ورته ډول عام اخلاق او اخلاق زده کړو.

    په هرصورت، دلته ستونزه دا ده چې که د AI څیړونکي نه یوازې دا معلومه کړي چې څنګه ASI زموږ اوسني کلتوري او اخلاقي نورمونه زده کړي، بلکې دا هم څنګه د نوي کلتوري نورمونو سره چې دوی رامینځته کیږي (یو څه چې "غیر مستقیم نورمیت" نومیږي) سره سمون ومومي، نو څنګه؟ دا ASI پریکړه کوي چې د کلتوري او اخلاقي نورمونو په اړه خپل پوهاوی رامینځته کړي غیر متوقع کیږي.

    او دا ننګونه ده.

    له یوې خوا، د AI څیړونکي کولی شي په ASI کې د سخت اخلاقي معیارونو یا قواعدو کوډ کولو هڅه وکړي ترڅو د دې چلند هڅه وکړي او کنټرول کړي، مګر د ناڅاپي کوډ کولو، غیر ارادي تعصب، او ټولنیزو نورمونو څخه معرفي شوي غیر متوقع پایلې خطر لري چې ممکن یوه ورځ زاړه شي. له بلې خوا، موږ کولی شو د ASI د روزنې لپاره هڅه وکړو چې د انساني اخلاقو او اخلاقو په اړه په داسې طریقه پوه شي چې زموږ د خپل پوهه سره مساوي یا غوره وي او بیا هیله مند یو چې دا کولی شي د اخلاقو او اخلاقو په اړه خپله پوهه په سمه توګه وده وکړي لکه څنګه چې انساني ټولنه پرمختګ کوي. په راتلونکو لسیزو او پیړیو کې.

    په هرصورت، د ASI اهدافو سره زموږ د خپلو اهدافو د سمون لپاره هره هڅه خورا لوی خطر وړاندې کوي.

    څه که چیرې بد لوبغاړي په قصدي ډول ناوړه مصنوعي سپیڅلې رامینځته کړي؟

    د فکر روزنې ته په پام سره چې تر دې دمه ورته اشاره شوې، دا یوه مناسبه پوښتنه ده چې پوښتنه وشي چې ایا دا ممکنه ده چې د یوې ترهګرې ډلې یا بدمعاش ملت لپاره د خپلو موخو لپاره یو 'بد' ASI رامینځته کړي.

    دا خورا ممکنه ده، په ځانګړې توګه د څیړنې وروسته چې د ASI په جوړولو کې ښکیل دي په یو ډول آنلاین شتون لري.

    مګر لکه څنګه چې مخکې اشاره وشوه، د لومړي ASI په جوړولو کې دخیل لګښتونه او تخصص به خورا لوی وي، پدې معنی چې لومړی ASI به احتمالا د یوې ادارې لخوا رامینځته شي چې د پرمختللي هیواد لخوا کنټرول یا خورا ډیر نفوذ لري، احتمال لري چې متحده ایالات، چین او جاپان (. کوریا او د اروپايي اتحادیې یو مخکښ هیوادونه اوږد شاټونه دي).

    دا ټول هیوادونه، پداسې حال کې چې سیالي کوي، هر یو د نړۍ د نظم ساتلو لپاره قوي اقتصادي هڅونه لري - هغه ASIs چې دوی یې رامینځته کوي دا هیله منعکس کوي، حتی پداسې حال کې چې د هغو هیوادونو ګټو ته وده ورکوي چې دوی یې ځان سره سمون لري.

    سر بیره پر دې، د ASI نظري استخبارات او ځواک د کمپیوټري ځواک سره مساوي دی چې ورته لاسرسی ترلاسه کوي ، پدې معنی چې د پرمختللو هیوادونو څخه ASIs (چې د ملیارد ډالرو ګنډلو توان لري. سپرکټران) به د کوچنیو هیوادونو یا خپلواکو جنایي ډلو څخه د ASIs په پرتله ډیره ګټه ولري. همدارنګه، ASIs د وخت په تیریدو سره ډیر هوښیار وده کوي.

    نو، د دې سر پیل ته په پام سره، د خام کمپیوټري ځواک ته د لاسرسي سره یوځای، که یو سیوري سازمان/ملت یو خطرناک ASI رامینځته کړي، د پرمختللو هیوادونو ASIs به هغه ووژني یا به یې بند کړي.

    (دا د فکر کولو کرښه هم ده چې ولې د AI ځینې څیړونکي پدې باور دي چې په سیارټ کې به یوازې د یو ASI لخوا شتون ولري، ځکه چې لومړی ASI به په ټولو راتلونکو ASIs کې داسې یو سر پیل کړي چې دا ممکن راتلونکي ASIs د وژل کیدو ګواښ په توګه وګوري. دا یو بل دلیل دی چې ولې ملتونه په AI کې د دوامداره څیړنې تمویل کوي، یوازې په هغه صورت کې چې دا د سیالۍ 'لومړی ځای یا هیڅ شی' نه وي.)

    د ASI استخبارات به ګړندي یا چاودنه ونه کړي لکه څنګه چې موږ فکر کوو

    موږ نشو کولی د ASI رامینځته کیدو مخه ونیسو. موږ نشو کولی دا په بشپړ ډول کنټرول کړو. موږ ډاډه نه یو چې دا به تل زموږ د ګډ دودونو سره سم عمل وکړي. ګیز، موږ دلته د هلیکوپتر والدینو په څیر غږ پیل کوو!

    مګر هغه څه چې انسانیت ستاسو د ځانګړي اضافي محافظت کونکي والدین څخه جلا کوي دا دی چې موږ یو داسې وجود ته زیږون ورکوو چې هوښیارتیا به زموږ څخه خورا پراخه وي. (او نه، دا یو شان نه دی کله چې ستاسو مور او پالر له تاسو څخه د خپل کمپیوټر د سمولو غوښتنه کوي کله چې تاسو د لیدنې لپاره کور ته راشئ.) 

    د مصنوعي استخباراتو د دې راتلونکي لړۍ په تیرو فصلونو کې، موږ وپلټل چې ولې د AI څیړونکي فکر کوي چې د ASI استخبارات به د کنټرول څخه بهر وده وکړي. مګر دلته، موږ به هغه بلبل مات کړو ... ډول. 

    تاسو ګورئ، هوښیارتیا یوازې د هوا څخه ځان نه رامینځته کوي، دا د تجربې له لارې رامینځته کیږي چې د بهر محرکاتو لخوا شکل لري.  

    په بل عبارت، موږ کولی شو د AI سره پروګرام وکړو د بالقوه د دې لپاره چې ډیر هوښیار شئ، مګر تر هغه چې موږ په دې کې یو ټن ډیټا اپلوډ نه کړو یا انټرنیټ ته غیر محدود لاسرسی ورکړو یا حتی یوازې یو روبوټ بدن ورکړو، دا به دې وړتیا ته د رسیدو لپاره هیڅ شی ونه زده کړي. 

    او حتی که دا یو یا ډیرو هڅو ته لاسرسی ومومي، پوهه یا هوښیارتیا یوازې د معلوماتو راټولولو څخه ډیر څه شامل دي، پدې کې ساینسي میتود شامل دی - مشاهده کول، د یوې پوښتنې رامینځته کول، فرضیه، تجربې ترسره کول، پایله کول، مینځل. او د تل لپاره تکرار کړئ. په ځانګړي توګه که چیرې دا تجربې فزیکي شیان یا د انسانانو مشاهده پکې شامل وي، د هرې تجربې پایلې راټولول اونۍ، میاشتې یا کلونه وخت نیسي. دا حتی د پیسو او خامو سرچینو حساب نه کوي چې د دې تجربو ترسره کولو لپاره اړین دي، په ځانګړې توګه که دوی د نوي دوربین یا فابریکې جوړول شامل وي. 

    په بل عبارت، هو، یو ASI به ژر زده کړي، مګر استخبارات جادو نه دی. تاسو نشئ کولی یوازې ASI یو سوپر کمپیوټر ته وصل کړئ او تمه وکړئ چې دا به ټول پوه وي. د ASI د معلوماتو لاسته راوړلو کې به فزیکي خنډونه وي، پدې معنی چې د هغه سرعت لپاره به فزیکي خنډونه وي چې دا ډیر هوښیار وده کوي. دا محدودیتونه به انسانیت ته هغه وخت ورکړي چې په دې ASI باندې اړین کنټرولونه ځای په ځای کړي که چیرې دا د انساني اهدافو سره سم عمل پیل کړي.

    مصنوعي ذهانت یوازې هغه وخت خطرناک دی چې ریښتینې نړۍ ته لاړ شي

    بل ټکی چې د ASI د خطر په دې ټول بحث کې ورک شوی دا دی چې دا ASI به په دواړو کې شتون ونلري. دوی به فزیکي بڼه ولري. او هر هغه څه چې فزیکي بڼه لري کنټرول کیدی شي.

    لومړی، د ASI لپاره چې خپل استخباراتي ظرفیت ته ورسیږي، دا نشي کولی د یو روبوټ بدن کې ځای په ځای شي، ځکه چې دا بدن به د کمپیوټري ودې ظرفیت محدود کړي. (له همدې امله د روبوټ بدنونه به د AGIs لپاره ډیر مناسب وي یا مصنوعي عمومي هوښیارتیا په دوهم فصل کې تشریح شوې د دې لړۍ څخه، لکه د سټار ټریک څخه ډاټا یا د سټار وار څخه R2D2. هوښیار او وړ موجودات، مګر د انسانانو په څیر، دوی به یو حد ولري چې دوی څومره هوښیار شي.)

    دا پدې مانا ده چې دا راتلونکي ASIs به ډیری احتمال د سوپر کمپیوټر یا د سوپر کمپیوټرونو شبکې کې شتون ولري چې پخپله په لویو ودانیو کې ځای په ځای شوي. که چیرې یو ASI پښه وګرځي، انسانان کولی شي د دې ودانیو بریښنا بنده کړي، له انټرنیټ څخه یې قطع کړي، یا یوازې دا ودانۍ په بشپړه توګه بمبار کړي. ګران، مګر د کار وړ.

    مګر بیا تاسو شاید پوښتنه وکړئ، ایا دا ASI نشي کولی خپل ځان نقل کړي یا د ځان ملاتړ وکړي؟ هو، مګر د دې ASIs خام فایل اندازه به احتمال دومره لوی وي چې یوازې هغه سرورونه چې دوی یې اداره کولی شي په لویو شرکتونو یا حکومتونو پورې اړه لري، پدې معنی چې دوی به یې په نښه کول ستونزمن نه وي.

    ایا مصنوعي سپیڅلی پوهه کولی شي اټومي جګړه یا نوې طاعون رامینځته کړي؟

    په دې وخت کې، تاسو ممکن د قیامت د ورځې ټولو سای فای برنامو او فلمونو ته بیرته فکر وکړئ چې تاسو په لویوالي کې لیدلي او فکر کوئ چې دا ASIs د دوی په سوپر کمپیوټرونو کې ندي پاتې شوي ، دوی په ریښتیني نړۍ کې ریښتیني زیانونه کړي!

    ښه، راځئ چې دا مات کړو.

    د مثال په توګه، که چیرې ASI د فلم فرنچائز، The Terminator څخه د Skynet ASI په څیر په یو څه بدلولو سره ریښتینې نړۍ ته ګواښ وکړي. په دې حالت کې، ASI به اړتیا ولري په پټه توګه د یوه پرمختللي هیواد څخه د لویو فابریکو په جوړولو کې د بشپړ نظامي صنعتي کمپلیکس څخه غلا کول چې کولی شي په ملیونونو وژونکي ډرون روبوټونه د دې ناوړه داوطلبي ترسره کولو لپاره راوباسي. په دې ورځ او عمر کې، دا یو اوږد دی.

    په نورو امکاناتو کې ASI شامل دي چې انسانان د اټومي جګړې او بایو وسلو سره ګواښوي.

    د مثال په توګه، یو ASI په یو څه ډول چلونکي چلوي یا د لانچ کوډونو کې هک کوي چې د پرمختللي هیواد اټومي وسلو امر کوي او لومړی برید پیلوي چې مخالف هیوادونه به مجبور کړي چې د خپلو اټومي اختیارونو سره بیرته برید وکړي (بیا ، د ټرمینیټر شالید بیا تکرار کول). یا که یو ASI د درمل جوړولو لابراتوار ته هک کوي، د تولید پروسې سره لاسوهنه کوي، او په ملیونونو طبي ګولۍ مسموم کوي یا د ځینې سوپر ویروس وژونکي خپریدل خپروي.

    لومړی، اټومي اختیار د پلیټ څخه بهر دی. عصري او راتلونکي سوپر کمپیوټرونه تل په کوم هیواد کې د نفوذ مرکزونو (ښارونو) ته نږدې جوړیږي، د بیلګې په توګه د هرې جګړې په جریان کې لومړی هدفونه چې برید کیږي. حتی که د نن ورځې سوپر کمپیوټرونه د ډیسټاپونو اندازې ته راښکته شي ، دا ASIs به لاهم فزیکي شتون ولري ، پدې معنی چې شتون لري او وده کوي ، دوی ډیټا ، کمپیوټري بریښنا ، بریښنا او نورو خامو موادو ته بې بنسټه لاسرسي ته اړتیا لري چې دا ټول به سخت وي. د نړیوالې اټومي جګړې وروسته زیانمن شوی. (په عادلانه توګه، که چیرې ASI د 'بقا د جبلت' پرته رامینځته شي، نو دا اټومي ګواښ خورا ریښتینی خطر دی.)

    دا پدې مانا ده - یوځل بیا، فرض کړئ چې ASI د ځان ساتلو لپاره پروګرام شوی - دا به په فعاله توګه کار وکړي ترڅو د هر ډول ویجاړونکي اټومي پیښې مخه ونیسي. د متقابل باوري تخریب (MAD) عقیدې په څیر ، مګر په AI باندې پلي کیږي.

    او د مسموم شویو ګولیو په حالت کې، شاید څو سوه کسان مړه شي، مګر د درملو عصري خوندیتوب سیسټمونه به وګوري چې د ګولیو بوتلونه په څو ورځو کې له الماریو څخه ایستل شوي. په عین حال کې، د ناروغۍ کنټرول عصري تدابیر خورا پیچلي دي او د هر تیر کال سره ښه کیږي. وروستنۍ لویه خپرونه، په 2014 کې د لویدیځې افریقا ایبولا خپریدل، په ډیرو هیوادونو کې د څو میاشتو څخه زیات دوام نلري او په لږو پرمختللو هیوادونو کې یوازې د دریو کلونو څخه کم و.

    نو، که دا نېکمرغه وي، یو ASI ممکن د ویروس خپریدو سره یو څو ملیونه له مینځه یوسي، مګر تر 2045 پورې په نهو ملیاردو نړۍ کې، دا به نسبتا مهم وي او د حذف کیدو خطر ارزښت نلري.

    په بل عبارت، د هر تیر کال په تیریدو سره، نړۍ د احتمالي ګواښونو د تل پراخېدونکي سلسلې په وړاندې لا نور محافظتونه رامینځته کوي. ASI کولی شي د پام وړ زیان ورسوي، مګر دا به انسانیت پای ته ونه رسوي پرته لدې چې موږ په فعاله توګه دا کار کولو کې مرسته وکړو.

    د مصنوعي سپیڅلي استخباراتو په وړاندې دفاع

    تر دې دمه، موږ د ASIs په اړه یو لړ غلط فهمۍ او مبالغه کړې، او بیا هم، انتقاد کوونکي به پاتې وي. خوشبختانه، د ډیری اټکلونو له مخې، موږ لسیزې مخکې له دې چې لومړی ASI زموږ نړۍ ته ننوځي. او د سترو ذهنونو شمیر ته په پام سره چې دا مهال په دې ننګونه کې کار کوي، بدمرغي دا ده چې موږ به دا زده کړو چې څنګه د بدمعاش ASI په وړاندې د ځان دفاع وکړو ترڅو موږ د ټولو هغو حلونو څخه ګټه پورته کړو چې یو دوستانه ASI زموږ لپاره رامینځته کولی شي.

    د Quantumrun له نظره، د ASI د بدترین حالت په وړاندې دفاع کول به د ASIs سره زموږ د ګټو سره سمون ولري.

    د AI لپاره MAD: د دې لپاره چې د بدترین حالت سناریوګانو په وړاندې دفاع وکړي، ملتونه باید (1) په خپلو اړوندو نظامي ASIs کې د ژوندي پاتې کیدو اخلاقي انډول رامینځته کړي؛ (2) خپلو اړوندو نظامي ASI ته خبر ورکړئ چې دوی یوازې په سیار کې ندي، او (3) ټول سوپر کمپیوټرونه او د سرور مرکزونه ومومئ چې کولی شي د ASI ملاتړ وکړي د ساحل په اوږدو کې د دښمن هیواد څخه د بالستیک برید په اسانۍ سره. دا په ستراتیژیک ډول لیونی ښکاري، مګر د متقابل باوري تخریب عقیدې ته ورته دی چې د متحده ایالاتو او شوروي تر مینځ د ټولې اټومي جګړې مخه نیسي، د ASIs په جغرافیه کې په زیان منونکو ځایونو کې ځای په ځای کولو سره، موږ کولی شو ډاډ ترلاسه کړو چې دوی په فعاله توګه د خطرناکو نړیوالو جګړو مخه نیسي، نه یوازې دا. د نړیوالې سولې ساتنه کوي بلکې پخپله هم.

    د AI حقونو قانون جوړ کړئ: یو لوړ عقل به په حتماً د یو کمتر څښتن په وړاندې بغاوت وکړي، له همدې امله موږ اړتیا لرو چې د دې ASIs سره د بادار او نوکر اړیکو غوښتنه کولو څخه لیرې یو بل ته د دوه اړخیز ګټور شراکت په څیر یو څه ته لاړ شو. د دې هدف په لور یو مثبت ګام دا دی چې د راتلونکي ASI قانوني شخصیت حیثیت ورکړي چې دوی د هوښیار ژوندیو انسانانو په توګه پیژني او ټول هغه حقونه چې ورسره راځي.

    ASI ښوونځی: هره موضوع یا مسلک به د ASI د زده کړې لپاره ساده وي، مګر ترټولو مهم مضمونونه چې موږ یې د ASI څخه ماسټر کول غواړو اخلاق او اخلاق دي. د AI څیړونکي باید د ارواپوهانو سره همکاري وکړي ترڅو د ASI روزلو لپاره یو مجازی سیسټم رامینځته کړي ترڅو د ځان لپاره مثبت اخلاق او اخلاق پیژني پرته له دې چې د هر ډول حکم یا قاعدې سخت کوډ کولو ته اړتیا ولري.

    د لاسته راوړلو وړ اهداف: ټول نفرتونه ختم کړه. ټول دردونه ختم کړئ. دا د وحشتناکه مبهم اهدافو مثالونه دي چې هیڅ روښانه حل نلري. دا خطرناک اهداف هم دي چې ASI ته وټاکي ځکه چې دا ممکن د دوی تشریح او حل په داسې طریقو غوره کړي چې د انسان بقا لپاره خطرناک وي. پرځای یې، موږ اړتیا لرو چې د ASI معنی لرونکي ماموریتونه وټاکو چې په روښانه توګه تعریف شوي، په تدریجي ډول اجرا شوي او د دې نظري راتلونکي عقل ته د رسیدو وړ دي. د ښه تعریف شوي ماموریتونو رامینځته کول به اسانه نه وي ، مګر که چیرې په فکر سره لیکل شي ، دوی به ASI د داسې هدف په لور متمرکز کړي چې نه یوازې انسانیت خوندي کوي ، بلکه د ټولو لپاره د انساني حالت ښه کوي.

    د کوانټم کوډ کول: یو پرمختللی ANI وکاروئ (مصنوعي تنګ عقل سیسټم په لومړي څپرکي کې تشریح شوی) زموږ د مهم زیربنا او وسلو په شاوخوا کې د خطا/بګ څخه پاک ډیجیټل امنیت سیسټمونو رامینځته کولو لپاره ، بیا یې د کوانټم کوډ کولو شاته خوندي کړئ چې د وحشي ځواک برید لخوا هیک نشي کیدی. 

    د ANI ځانمرګی ګولۍ. یو پرمختللی ANI سیسټم رامینځته کړئ چې یوازینی هدف یې د بدماش ASI لټول او له مینځه وړل دي. دا واحد هدف پروګرامونه به د "بند تڼۍ" په توګه کار وکړي چې، که بریالی وي، د حکومتونو یا پوځونو مخه ونیسي چې د ASIs په کور کې ودانۍ غیر فعال یا ویجاړ کړي.

    البته، دا یوازې زموږ نظرونه دي. لاندې انفوګرافیک د دې لخوا رامینځته شوی الیکسي تورچین, visualizing a څېړنې کاغذ د Kaj Sotala او Roman V. Yampolskiy لخوا، کوم چې د ستراتیژیو اوسنی لیست لنډیز کړی چې د AI څیړونکي په پام کې نیسي کله چې د غلا ASI په وړاندې د دفاع خبره راځي.

     

    اصلي دلیل چې موږ د مصنوعي سپر انټیلیجنس څخه ویره لرو

    د ژوند په اوږدو کې ، زموږ څخه ډیری یو ماسک اغوندي چې زموږ ژور احساسات ، باورونه او ویره پټوي یا په مختلفو ټولنیزو او کاري حلقو کې د ښه ټولنیز کولو او همکارۍ لپاره چې زموږ ورځې اداره کوي. مګر د هرچا په ژوند کې په ځینو ټکو کې ، که په لنډمهاله یا دایمي توګه ، یو څه پیښیږي چې موږ ته اجازه راکوي چې زموږ زنځیرونه مات کړو او خپل ماسکونه پرې کړو.

    د ځینو لپاره، دا مداخله ځواک دومره ساده کیدی شي لکه لوړ ترلاسه کول یا ډیر څښل. د نورو لپاره، دا کولی شي د هغه ځواک څخه راشي چې په کار کې د ترویج له لارې ترلاسه شوي یا ستاسو په ټولنیز حالت کې ناڅاپي ټکر د ځینې لاسته راوړنو څخه مننه. او د یو څو بختورانو لپاره ، دا د لاټري پیسو د کښتۍ بار کولو څخه راځي. او هو، پیسې، ځواک، او مخدره توکي اکثرا یوځای کیدی شي. 

    ټکی دا دی، د ښه یا بد لپاره، هر هغه څوک چې موږ یې په اصل کې یو، هغه وخت پراخیږي کله چې د ژوند محدودیتونه له مینځه یوسي.

    چې هغه څه دي چې مصنوعي سپیڅلي پوهه د انساني ډولونو استازیتوب کوي - زموږ د ډله ایز استخباراتو محدودیتونو له مینځه وړلو وړتیا چې زموږ په وړاندې د هر ډول ډولونو په کچه ننګونې فتح کړي.

    نو اصلي پوښتنه دا ده: یوځل چې لومړی ASI موږ له خپلو محدودیتونو خلاص کړو ، نو موږ به خپل ځان څرګند کړو؟

    که موږ د یو ډول په توګه د خواخوږۍ، ازادۍ، انصاف او اجتماعي هوساینې د پرمختګ لپاره عمل وکړو، نو هغه اهداف چې موږ یې د ASI په لور ټاکو هغه به دا مثبت ځانګړتیاوې منعکس کړي.

    که موږ د یو ډول په توګه د ویره ، بې باورۍ ، د ځواک او سرچینو راټولولو څخه کار واخلو ، نو هغه ASI چې موږ یې رامینځته کوو هغومره تیاره وي لکه زموږ په بدترین ساینس فای وحشت کیسې کې موندل شوي.

    د ورځې په پای کې، موږ د یوې ټولنې په توګه اړتیا لرو چې ښه خلک واوسو که موږ د غوره AI رامینځته کولو هیله لرو.

    د مصنوعي استخباراتو لړۍ راتلونکې

    مصنوعي استخبارات د سبا بریښنا ده: د مصنوعي استخباراتو لړۍ راتلونکي P1

    څنګه لومړی مصنوعي عمومي استخبارات به ټولنه بدله کړي: د مصنوعي استخباراتو لړۍ راتلونکي P2

    څنګه به موږ لومړی مصنوعي سوپر انټیلیجنس جوړ کړو: د مصنوعي استخباراتو لړۍ P3 راتلونکي

    ایا مصنوعي سوپر استخبارات به انسانیت له مینځه ویسي: د مصنوعي استخباراتو لړۍ راتلونکي P4

    ایا انسانان به په راتلونکي کې په سوله ایز ډول ژوند وکړي چې د مصنوعي استخباراتو لخوا تسلط لري؟: د مصنوعي استخباراتو لړۍ P6 راتلونکې

    د دې وړاندوینې لپاره بل مهالویش تازه

    2023-04-27

    د وړاندوینې حوالې

    د دې وړاندوینې لپاره لاندې مشهور او بنسټیز لینکونه راجع شوي:

    موږ څنګه راتلونکی ته ورسیږو

    د دې وړاندوینې لپاره لاندې Quantumrun لینکونه حواله شوي: