انسان ڪيئن هڪ مصنوعي ذهانت جي خلاف دفاع ڪندو: مصنوعي ذهانت جو مستقبل P5

تصويري ڪريڊٽ: Quantumrun

انسان ڪيئن هڪ مصنوعي ذهانت جي خلاف دفاع ڪندو: مصنوعي ذهانت جو مستقبل P5

    سال 65,000 قبل مسيح آهي، ۽ هڪ Thylacoleoتوهان ۽ توهان جا قسم قديم آسٽريليا جا عظيم شڪار هئا. توهان آزاديءَ سان زمين تي گهمندا رهيا ۽ توهان سان گڏ زمين تي قبضو ڪندڙ ساٿي شڪارين ۽ شڪارين سان برابري ۾ رهندا هئا. موسمون تبديليون آڻينديون آيون، پر جانورن جي بادشاهي ۾ توهان جي حيثيت ان وقت تائين غير مشڪل رهي، جيستائين توهان ۽ توهان جا ابا ڏاڏا ياد ڪري سگهن. پوءِ هڪ ڏينهن نوان ماڻهو ظاهر ٿيا.

    افواهون اهو آهي ته اهي ديو پاڻي جي ڀت کان پهتا آهن، پر اهي مخلوق زمين تي وڌيڪ آرام سان رهڻ لڳي. توهان کي انهن مخلوقن کي پنهنجي لاءِ ڏسڻو هو.

    اهو ڪجهه ڏينهن ورتو، پر توهان آخرڪار ان کي ساحل تائين پهچايو. آسمان ۾ باهه ٻري رهي هئي، انهن مخلوقن تي جاسوسي ڪرڻ لاءِ هڪ بهترين وقت، ٿي سگهي ٿو ته هڪ کائڻ جي ڪوشش ڪري ڏسو ته انهن جو ذائقو ڪيئن آهي.

    توھان ھڪڙي جڳھ ڏيو.

    اهو ٻن ٽنگن تي هلندو هو ۽ ان کي ڪا به فر نه هئي. ڪمزور نظر آيو. بي اثر. هن جي بادشاهي جي وچ ۾ جيڪو خوف پيدا ٿي رهيو هو، اهو مشڪل سان قابل نه هو.

    توهان احتياط سان پنهنجو رخ ٺاهڻ شروع ڪيو جيئن رات روشني کي پري ڪري ٿي. تون ويجھو ٿي رهيو آهين. پوء توهان منجمد ڪريو. اوچتو آواز گونجي ٿو ۽ پوءِ ان جي پويان چار ٻيا به جنگل مان نڪرندا آهن. اتي ڪيترا آهن؟

    مخلوق ٻين جي پٺيان وڻن جي قطار ۾، ۽ توهان پيروي ڪريو. ۽ جيترو توهان ڪندا آهيو، اوترو وڌيڪ عجيب آواز توهان ٻڌندا آهيو جيستائين توهان انهن مخلوقن مان اڃا به وڌيڪ نه ڳوليندا. توهان هڪ فاصلي تي پيروي ڪريو جيئن اهي ٻيلي کان ٻاهر نڪرندا ڪنارن کان صاف ڪرڻ ۾. انهن مان ڪيترائي آهن. پر وڌيڪ اهم، اهي سڀئي آرام سان باهه جي چوڌاري ويٺا آهن.

    توهان اهي باهه اڳي ئي ڏٺيون آهن. گرميءَ جي موسم ۾، آسمان ۾ باهه ڪڏهن ڪڏهن زمين ۾ اچي ويندي هئي ۽ سڄي ٻيلن کي ساڙي ڇڏيندي هئي. اهي مخلوق، ٻئي طرف، اهي ڪنهن نه ڪنهن طريقي سان ان کي ڪنٽرول ڪري رهيا هئا. ڪهڙي قسم جي مخلوق اهڙي طاقت رکي سگهي ٿي؟

    تون فاصلي ۾ ڏس. وڌيڪ پاڻي جي ديوار جي مٿان اچي رهيا آهن.

    توهان هڪ قدم واپس وٺو.

    اهي مخلوقات بادشاهي ۾ ٻين وانگر نه آهن. اهي ڪجهه مڪمل طور تي نئين آهن.

    توهان ڇڏڻ جو فيصلو ڪيو ۽ پنهنجي مائٽن کي ڊيڄاريو. جيڪڏهن انهن جو تعداد تمام وڏو آهي، ڪير ڄاڻي ٿو ته ڇا ٿي سگهي ٿو.

    ***

    اهو يقين آهي ته Thylacoleo انسانن جي اچڻ کان پوء نسبتا مختصر وقت ختم ٿي وئي، آسٽريليا براعظم تي ٻين ميگافاونا جي اڪثريت سان گڏ. ٻيو ڪو به اعليٰ ترين ٿلهي جانور ان جي جاءِ نه ورتو- يعني جيستائين توهان انسانن کي ان درجي ۾ شمار نه ڪيو.

    هن تمثيل کي بند ڪرڻ هن سيريز جي باب جو مرڪز آهي: ڇا مستقبل ۾ هڪ مصنوعي سپر انٽيليجنس (ASI) اسان سڀني کي بيٽرين ۾ تبديل ڪري ڇڏيندو ۽ پوءِ اسان کي ميٽرڪس ۾ پلگ ان ڪندو يا انسان هڪ اسڪئي فائي جو شڪار ٿيڻ کان بچڻ لاءِ ڪو رستو ڳوليندو، AI قيامت جي سازش؟

    هينئر تائين اسان جي سيريز ۾ مصنوعي ذهانت جو مستقبل، اسان AI جي سڀني قسمن جي ڳولا ڪئي آهي، بشمول AI جي هڪ خاص شڪل جي مثبت صلاحيت، ASI: هڪ مصنوعي وجود جنهن جي مستقبل جي ذهانت اسان کي مقابلي ۾ چيتن وانگر نظر ايندي.

    پر ڪير چوندو ته هي سمارٽ هئڻ ڪري هميشه لاءِ انسانن کان آرڊر وٺڻ قبول ڪندو. اسان ڇا ڪنداسين جيڪڏهن شيون ڏکڻ ٿي وڃن؟ بدمعاش ASI کان ڪيئن دفاع ڪنداسين؟

    هن باب ۾، اسان ڪوڙي هائپ کي ختم ڪنداسين - گهٽ ۾ گهٽ جيئن ته اهو 'انساني ختم ٿيڻ جي سطح' جي خطرن سان تعلق رکي ٿو- ۽ عالمي حڪومتن لاءِ موجود حقيقي خود دفاعي اختيارن تي ڌيان ڏينداسين.

    ڇا اسان مصنوعي سپر انٽيليجنس ۾ وڌيڪ تحقيق کي روڪي سگهون ٿا؟

    امڪاني خطرن کي ڏنو ويو ته هڪ ASI انسانيت کي پيدا ڪري سگهي ٿو، پڇڻ لاء پهريون واضح سوال آهي: ڇا اسان صرف AI ۾ وڌيڪ تحقيق کي روڪي نٿا سگهون؟ يا گهٽ ۾ گهٽ ڪنهن به تحقيق کي روڪيو جيڪو اسان کي خطرناڪ طور تي اي ايس آئي ٺاهڻ جي ويجهو پهچي سگهي ٿو؟

    مختصر جواب: نه.

    ڊگھو جواب: اچو ته ڏسو مختلف رانديگرن تي جيڪي هتي شامل آهن.

    تحقيق جي سطح تي، اڄڪلهه تمام گھڻا AI محقق آھن دنيا جي ڪيترن ئي شروعاتي، ڪمپنين ۽ يونيورسٽين مان. جيڪڏهن هڪ ڪمپني يا ملڪ فيصلو ڪيو ته انهن جي AI تحقيقي ڪوششن کي محدود ڪري، اهي صرف ٻئي هنڌ جاري رکندا.

    ان کان علاوه، سيارو جي سڀ کان قيمتي ڪمپنيون پنهنجون قسمت ٺاهي رهيا آهن انهن جي AI سسٽم جي درخواست کي انهن جي مخصوص ڪاروبار لاء. انهن کان پڇڻ ته انهن جي AI اوزارن جي ترقي کي روڪڻ يا محدود ڪرڻ جي برابر آهي انهن کان پڇڻ لاءِ انهن جي مستقبل جي ترقي کي روڪڻ يا محدود ڪرڻ. مالي طور تي، اهو انهن جي ڊگهي مدت واري ڪاروبار کي خطرو ڪندو. قانوني طور تي، ڪارپوريشنن کي مسلسل ذميواري آهي ته انهن جي اسٽيڪ هولڊرز لاءِ قدر پيدا ڪرڻ؛ ان جو مطلب اهو آهي ته ڪو به عمل جيڪو ان قدر جي واڌ کي محدود ڪري سگهي ٿو هڪ مقدمو ٿي سگهي ٿو. ۽ جيڪڏهن ڪنهن سياستدان AI تحقيق کي محدود ڪرڻ جي ڪوشش ڪئي، ته پوءِ اهي وڏيون ڪارپوريشنون صرف ضروري لابنگ فيس ادا ڪنديون ته انهن جو ذهن يا پنهنجن ساٿين جي ذهنن کي تبديل ڪرڻ لاءِ.

    جنگ لاءِ، جيئن سڄي دنيا ۾ دهشتگردن ۽ آزاديءَ جي ويڙهاڪن بهتر پئسي وارن فوجين سان وڙهڻ لاءِ گوريلا حڪمت عمليون استعمال ڪيون آهن، ننڍين قومن کي AI کي وڏين قومن جي خلاف ساڳي حڪمت عملي طور استعمال ڪرڻ جي ترغيب هوندي، جنهن جا ڪيترائي فوجي فائدا هوندا. ساڳئي طرح، مٿين فوجين لاء، جهڙوڪ آمريڪا، روس ۽ چين سان تعلق رکندڙ، هڪ فوجي ASI تعمير ڪرڻ توهان جي پوئين کيسي ۾ ايٽمي هٿيارن جي هٿيارن جي برابر آهي. ٻين لفظن ۾، سڀ فوجي AI کي فنڊ جاري ڪندا صرف مستقبل ۾ لاڳاپيل رهڻ لاءِ.

    حڪومتن بابت ڪيئن؟ سچ پچ، اڪثر سياستدان اڄڪلهه (2018) ٽيڪنالاجي طور تي اڻ پڙهيل آهن ۽ انهن کي ٿوري سمجھ آهي ته AI ڇا آهي يا ان جي مستقبل جي صلاحيت آهي- اهو انهن کي آسان بڻائي ٿو ڪارپوريٽ مفادن جي هٿان.

    ۽ عالمي سطح تي، غور ڪريو ته دنيا جي حڪومتن کي 2015 تي دستخط ڪرڻ لاءِ قائل ڪرڻ ڪيترو ڏکيو هو پئرس جا قاعدا آبهوا جي تبديلي کي منهن ڏيڻ لاءِ- ۽ هڪ ڀيرو دستخط ٿيڻ بعد، ڪيتريون ئي ذميواريون به پابند نه هيون. نه رڳو ايترو، موسمياتي تبديلي هڪ مسئلو آهي جيڪو ماڻهو جسماني طور تي عالمي سطح تي وڌندڙ بار بار ۽ سخت موسمي واقعن جي ذريعي تجربو ڪري رهيا آهن. هاڻي، جڏهن AI تي حدن تي اتفاق ڪرڻ جي باري ۾ ڳالهائيندي، اهو هڪ مسئلو آهي جيڪو گهڻو ڪري پوشيده آهي ۽ عوام لاء بمشکل سمجھ ۾ اچي ٿو، تنهنڪري خوش قسمت AI کي محدود ڪرڻ لاء 'پيرس معاهدي' جي ڪنهن به قسم جي خريداري ۾ حاصل ڪرڻ.

    ٻين لفظن ۾، اتي تمام گهڻيون دلچسپيون آهن جيڪي AI جي تحقيق ڪري رهيا آهن انهن جي پنهنجي پڇاڙيءَ لاءِ ڪنهن به تحقيق کي روڪڻ لاءِ جيڪو آخرڪار ASI ڏانهن وٺي سگهي ٿو. 

    ڇا اسان هڪ مصنوعي سپر انٽيليجنس کي پنجري ڪري سگهون ٿا؟

    ايندڙ معقول سوال اهو آهي ته ڇا اسان هڪ ASI کي پنجري يا ڪنٽرول ڪري سگهون ٿا جڏهن اسان لازمي طور تي هڪ ٺاهي سگهون ٿا؟ 

    مختصر جواب: ٻيهر، نه.

    ڊگھو جواب: ٽيڪنالاجي شامل نه ٿي سگھي.

    هڪ لاءِ، رڳو دنيا جي هزارين کان لکين ويب ڊولپرز ۽ ڪمپيوٽر سائنسدانن تي غور ڪريو جيڪي مسلسل نوان سافٽ ويئر يا موجوده سافٽ ويئر جا نوان ورجن ٺاهي رهيا آهن. ڇا اسان ايمانداري سان چئي سگهون ٿا ته انهن مان هر هڪ سافٽ ويئر رليز 100 سيڪڙو بگ فري آهي؟ اهي بگ اهي آهن جيڪي پروفيشنل هيڪرز لکين جي ڪريڊٽ ڪارڊ جي معلومات چوري ڪرڻ لاءِ استعمال ڪندا آهن يا قومن جا رازداري راز - ۽ اهي انساني هيڪرز آهن. هڪ ASI لاءِ، فرض ڪيو ته ان کي پنهنجي ڊجيٽل پنجج کان بچڻ لاءِ هڪ حوصلا افزائي ڪئي وئي، پوءِ ڪيڙا ڳولڻ ۽ سافٽ ويئر ذريعي ٽوڙڻ جو عمل هڪ هوا هوندو.

    پر ان هوندي به جيڪڏهن هڪ AI ريسرچ ٽيم هڪ ASI کي باڪس ڪرڻ جو هڪ طريقو ڳولي ورتو آهي، ان جو مطلب اهو ناهي ته ايندڙ 1,000 ٽيمون ان کي پڻ معلوم ڪنديون يا ان کي استعمال ڪرڻ جي ترغيب ڏين.

    هڪ ASI ٺاهڻ ۾ اربين ڊالر ۽ شايد ڏهاڪا لڳندا. ڪارپوريشن يا حڪومتون جيڪي هن قسم جي رقم ۽ وقت تي سيڙپڪاري ڪندا آهن انهن جي سيڙپڪاري تي هڪ اهم واپسي جي اميد هوندي. ۽ هڪ ASI لاءِ ان قسم جي واپسي مهيا ڪرڻ لاءِ- چاهي اهو اسٽاڪ مارڪيٽ کيڏڻ هجي يا بلين ڊالر جو نئون پراڊڪٽ ايجاد ڪرڻ هجي يا ڪنهن وڏي فوج سان وڙهڻ لاءِ کٽڻ واري حڪمت عملي جوڙڻو هجي- ان کي وڏي ڊيٽا سيٽ يا انٽرنيٽ تائين مفت رسائي جي ضرورت پوندي. پاڻ انهن واپسي پيدا ڪرڻ لاء.

    ۽ هڪ دفعو ASI دنيا جي نيٽ ورڪن تائين رسائي حاصل ڪري ٿو، اتي ڪا به ضمانت نه آهي ته اسان ان کي واپس ان جي پنجري ۾ رکي سگهون ٿا.

    ڇا هڪ مصنوعي سپر انٽيليجنس سٺو ٿيڻ سکي سگهي ٿو؟

    في الحال، AI محقق پريشان نه آهن ASI جي برائي ٿيڻ بابت. سڄي برائي، AI اسڪئي فائي ٽراپ صرف انسانن کي اينٿروپومورفائيز ڪري رهيو آهي. مستقبل جو ASI نه ته سٺو يا خراب هوندو - انساني تصورات - صرف اخلاقي.

    قدرتي مفروضو پوءِ اهو آهي ته هن خالي اخلاقي سليٽ کي ڏنو ويو ، AI محقق پروگرام ڪري سگهن ٿا پهرين ASI اخلاقي ضابطن ۾ جيڪي اسان جي پنهنجي مطابق آهن ته جيئن اهو ختم نه ٿئي اسان تي ٽرمينيٽرز کي ختم ڪرڻ يا اسان سڀني کي ميٽرڪس بيٽرين ۾ تبديل ڪري.

    پر اهو مفروضو هڪ ثانوي مفروضي ۾ بيٺو آهي ته AI محقق پڻ اخلاقيات، فلسفي ۽ نفسيات جا ماهر آهن.

    حقيقت ۾، گهڻا نه آهن.

    سنجيدگي جي نفسيات جي ماهر ۽ ليکڪ، اسٽيون پنڪر جي مطابق، هن حقيقت جو مطلب اهو آهي ته ڪوڊنگ اخلاقيات جو ڪم مختلف طريقن سان غلط ٿي سگهي ٿو.

    مثال طور، ايستائين جو بهترين ارادو رکندڙ AI محقق شايد نادانستگي سان انهن ASI ۾ ڪوڊ ڪري سگھن ٿا جيڪي اخلاقي ضابطن ۾ خراب سوچن ٿا جيڪي ڪجهه حالتن ۾ ASI کي هڪ سماجي پيٽ وانگر ڪم ڪرڻ جو سبب بڻجي سگهن ٿا.

    ساڳئي طرح، هڪ برابر امڪان آهي ته هڪ AI محقق پروگرامن اخلاقي ڪوڊس جنهن ۾ محقق جي پيدائشي تعصب شامل آهن. مثال طور، هڪ ASI ڪيئن برتاءُ ڪندو جيڪڏهن اخلاقيات سان ٺهيل هجي قدامت پسند بمقابله لبرل نقطه نظر، يا ٻڌمت بمقابله عيسائي يا اسلامي روايت؟

    منهنجو خيال آهي ته توهان هتي اهو مسئلو ڏسي رهيا آهيو: انساني اخلاقيات جو ڪو عالمگير سيٽ ناهي. جيڪڏهن اسان چاهيون ٿا ته اسان جو ASI اخلاقي ضابطو تحت ڪم ڪري ته اهو ڪٿان ايندو؟ اسان ڪهڙا ضابطا شامل ڪريون ٿا ۽ خارج ڪريون ٿا؟ ڪير فيصلو ڪري؟

    يا چئو ته اهي AI محقق هڪ ASI ٺاهيندا آهن جيڪي اڄ جي جديد ثقافتي ريتن ۽ قانونن سان بلڪل مطابقت رکن ٿا. اسان ان کان پوءِ وفاقي، رياستي/صوبائي، ۽ ميونسپل بيوروڪريسيز کي وڌيڪ موثر طريقي سان ڪم ڪرڻ ۾ مدد ڏيڻ لاءِ هن ASI کي ملازمت ڏيون ٿا ۽ انهن اصولن ۽ قانونن کي بهتر طور تي لاڳو ڪرڻ ۾ مدد ڪريون ٿا (هڪ ممڪن طور تي ASI لاءِ استعمال جو ڪيس). خير، ڇا ٿيندو جڏهن اسان جي ثقافت تبديل ٿيندي؟

    تصور ڪريو هڪ ASI ڪيٿولڪ چرچ پنهنجي طاقت جي اونچائي تي قرون وسطي يورپ (1300-1400s) دوران چرچ کي آبادي کي منظم ڪرڻ ۾ مدد ڏيڻ ۽ ان وقت جي مذهبي عقيدي جي سخت پيروي کي يقيني بڻائڻ جي مقصد سان ٺاهيو ويو. ڇا صدين کان پوءِ به عورتن کي اهي ئي حق ملندا، جيئن اڄ حاصل ڪن ٿا؟ ڇا اقليتن کي تحفظ ڏنو ويندو؟ ڇا آزاد تقرير کي فروغ ڏنو ويندو؟ ڇا چرچ ۽ رياست جي علحدگي نافذ ڪئي ويندي؟ جديد سائنس؟

    ٻين لفظن ۾، ڇا اسان مستقبل کي اڄ جي اخلاقيات ۽ رسمن ۾ قيد ڪرڻ چاهيون ٿا؟

    هڪ متبادل طريقو اهو آهي جيڪو ڪولن ايلن طرفان شيئر ڪيو ويو آهي، ڪتاب جي هم مصنف، اخلاقي مشينون: سيکارڻ روبوٽ صحيح کان غلط. سخت اخلاقي ضابطن کي ڪوڊ ڪرڻ جي ڪوشش ڪرڻ جي بدران، اسان وٽ آهي ASI عام اخلاقيات ۽ اخلاقيات ساڳيء طرح سکندا آهن جيئن انسان ڪندا آهن، ٻين سان تجربو ۽ رابطي ذريعي.

    هتي مصيبت، بهرحال، اها آهي ته AI محقق نه رڳو اهو معلوم ڪن ٿا ته هڪ ASI کي اسان جي موجوده ثقافتي ۽ اخلاقي معيارن کي ڪيئن سيکاريو وڃي، پر اهو پڻ ڪيئن ڪجي ته نئين ثقافتي ريتن رسمن سان ڪيئن ٺهڪندڙ هجي جيئن اهي پيدا ٿين ٿا (ڪجهه شيء جنهن کي 'اڻ سڌي ريت' سڏيو ويندو آهي)، پوء ڪيئن. هي ASI ثقافتي ۽ اخلاقي اصولن جي پنهنجي سمجھ کي وڌائڻ جو فيصلو ڪري ٿو، غير متوقع طور تي.

    ۽ اهو چئلينج آهي.

    هڪ طرف، AI محقق ASI ۾ سخت اخلاقي معيارن يا ضابطن کي ڪوڊ ڪرڻ جي ڪوشش ڪري سگهن ٿا ته جيئن ان جي رويي کي ڪنٽرول ڪرڻ ۽ ڪنٽرول ڪرڻ جي ڪوشش ڪئي وڃي، پر خطرناڪ ڪوڊنگ، غير ارادي تعصب، ۽ سماجي ريتن رسمن مان متعارف ٿيڻ جا غير متوقع نتيجا جيڪي هڪ ڏينهن پراڻي ٿي سگهن ٿا. ٻئي طرف، اسان ASI کي تربيت ڏيڻ جي ڪوشش ڪري سگهون ٿا ته جيئن انساني اخلاقيات ۽ اخلاقيات کي سمجهڻ جي سکڻ لاء انهي طريقي سان جيڪو اسان جي پنهنجي سمجهه جي برابر يا اعلي هجي ۽ پوء اميد ڪري سگهون ٿا ته هو پنهنجي اخلاقيات ۽ اخلاقيات جي سمجهه کي صحيح طور تي ترقي ڪري سگهي ٿو جيئن انساني سماج ترقي ڪري ٿو. ايندڙ ڏهاڪن ۽ صدين کان اڳتي.

    ڪنهن به صورت ۾، اسان جي پنهنجي مقصد سان ASI جي مقصدن کي ترتيب ڏيڻ جي ڪا به ڪوشش هڪ وڏو خطرو پيش ڪري ٿو.

    ڇا جيڪڏهن خراب اداڪار ڄاڻي واڻي برائي مصنوعي سپر انٽيليجنس ٺاهي؟

    هينئر تائين بيان ڪيل سوچ جي ٽرين کي ڏسندي، اهو پڇڻ هڪ مناسب سوال آهي ته ڇا اهو ممڪن آهي ته هڪ دهشتگرد گروهه يا بدمعاش قوم پنهنجي مقصد لاء هڪ 'برائي' ASI ٺاهي.

    اهو تمام ممڪن آهي، خاص طور تي تحقيق کان پوءِ جنهن ۾ شامل آهي ASI ٺاهڻ ۾ ڪنهن نه ڪنهن طرح آن لائن دستياب ٿي وڃي ٿي.

    پر جيئن اڳ ۾ اشارو ڪيو ويو آهي، پهرين ASI ٺاهڻ ۾ ملوث خرچ ۽ ماهر تمام گهڻو هوندو، مطلب ته پهريون ASI ممڪن طور تي هڪ تنظيم طرفان ٺاهي ويندي جيڪا ترقي يافته قوم جي ڪنٽرول يا تمام گهڻو متاثر ٿي، ممڪن آهي ته آمريڪا، چين ۽ جاپان ( ڪوريا ۽ يورپي يونين جي ملڪن مان هڪ ڊگهي شاٽ آهن).

    اهي سڀئي ملڪ، جڏهن ته مقابلي ۾، هر هڪ وٽ عالمي نظم برقرار رکڻ لاءِ هڪ مضبوط معاشي ترغيب آهي- اهي ASIs جيڪي اهي ٺاهيندا آهن ان خواهش جي عڪاسي ڪندا، ايستائين جو انهن قومن جي مفادن کي اڳتي وڌائيندي، جن سان هو پاڻ کي ترتيب ڏين ٿا.

    انهي جي چوٽي تي، هڪ ASI جي نظرياتي ذهانت ۽ طاقت انهي ڪمپيوٽنگ پاور جي برابر آهي جنهن تائين اها پهچ حاصل ڪري ٿي، مطلب ته ترقي يافته قومن مان ASIs (جيڪو هڪ بلين ڊالر جي گنجائش برداشت ڪري سگهي ٿو. سپر ريڪارڊ) ننڍين قومن يا آزاد ڏوهن جي گروهن مان ASIs تي وڏو فائدو حاصل ڪندو. انهي سان گڏ، ASIs وڌندا آهن وڌيڪ ذهين، وڌيڪ جلدي وقت سان.

    تنهن ڪري، هن سر شروعات کي، خام ڪمپيوٽنگ جي طاقت تائين وڏي رسائي سان گڏ، ڇا هڪ ڇانو تنظيم / قوم هڪ خطرناڪ ASI ٺاهي، ترقي يافته قومن مان ASIs يا ته ان کي ماري ڇڏيندو يا ان کي پنجري ۾ وجهي ڇڏيندو.

    (سوچ جو اهو سلسلو اهو به آهي ته ڪجهه AI محققن جو خيال آهي ته ڌرتيءَ تي ڪڏهن به هڪ ASI هوندو، ڇاڪاڻ ته پهرين ASI سڀني ڪامياب ASIs تي اهڙي سر شروعات ڪندو ته اهو مستقبل جي ASI کي قتل ٿيڻ جي خطرن وانگر ڏسي سگهي ٿو. اهو اڃا تائين هڪ ٻيو سبب آهي ڇو ته قومون AI ۾ جاري تحقيق کي فنڊ ڏئي رهيون آهن، صرف ان صورت ۾ جڏهن اهو 'پهريون جڳهه يا ڪجهه به نه' مقابلو بڻجي وڃي.)

    ASI انٽيليجنس تيز نه ٿيندي يا ڌماڪي وانگر اسان سوچيو

    اسان اي ايس آءِ کي ٺهڻ کان نٿا روڪي سگهون. اسان ان کي مڪمل طور تي ڪنٽرول نٿا ڪري سگهون. اسان يقين نه ٿا ڪري سگھون ته اهو هميشه اسان جي گڏيل رواج جي مطابق عمل ڪندو. گيز، اسان هتي هيلي ڪاپٽر والدين وانگر آواز ڏيڻ شروع ڪري رهيا آهيون!

    پر جيڪو انسانيت کي توهان جي عام حفاظتي والدين کان جدا ڪري ٿو اهو اهو آهي ته اسان هڪ اهڙي وجود کي جنم ڏئي رهيا آهيون جنهن جي ذهانت اسان جي حد کان وڌي ويندي. (۽ نه، اهو ساڳيو ناهي جڏهن توهان جا والدين توهان کان پڇن ٿا ته انهن جي ڪمپيوٽر کي درست ڪريو جڏهن توهان گهمڻ لاء گهر ايندا.) 

    مصنوعي ذهانت واري سيريز جي هن مستقبل جي پوئين بابن ۾، اسان دريافت ڪيو ته اي آءِ جي محققن جو خيال آهي ته ASI جي ذهانت قابو کان ٻاهر وڌي ويندي. پر هتي، اسان ان بلبل کي دفن ڪنداسين ... قسم جو. 

    توهان ڏسندا آهيو، سمجهه صرف پاڻ کي پتلي هوا مان پيدا نه ڪندي آهي، اها تجربي جي ذريعي ترقي ڪئي وئي آهي جيڪا ٻاهرئين محرکن جي شڪل ۾ آهي.  

    ٻين لفظن ۾، اسان پروگرام ڪري سگھون ٿا AI سان امڪاني سپر ذهين ٿيڻ لاءِ، پر جيستائين اسان ان ۾ هڪ ٽين ڊيٽا اپلوڊ نه ڪريون يا ان کي انٽرنيٽ تائين غير محدود رسائي نه ڏيون يا ان کي صرف هڪ روبوٽ باڊي نه ڏيون، اهو ان صلاحيت تائين پهچڻ لاءِ ڪجهه به نه سکندو. 

    ۽ جيتوڻيڪ اهو انهن مان هڪ يا وڌيڪ محرڪن تائين رسائي حاصل ڪري ٿو، علم يا ذهانت ۾ صرف ڊيٽا گڏ ڪرڻ کان وڌيڪ شامل آهي، ان ۾ سائنسي طريقو شامل آهي - هڪ مشاهدو ڪرڻ، هڪ سوال ٺاهڻ، هڪ مفروضو، تجربن کي هلائڻ، نتيجو ڪڍڻ، رگڻ. ۽ هميشه لاء ورجائي. خاص طور تي جيڪڏهن انهن تجربن ۾ جسماني شيون شامل هجن يا انسانن جو مشاهدو ڪجي ته هر تجربي جا نتيجا گڏ ٿيڻ ۾ هفتا، مهينا يا سال لڳي سگهن ٿا. اهو انهن تجربن کي انجام ڏيڻ لاءِ گهربل پئسن ۽ خام وسيلن جو به حساب نٿو رکي، خاص طور تي جيڪڏهن انهن ۾ هڪ نئين دوربين يا ڪارخاني جي تعمير شامل هجي. 

    ٻين لفظن ۾، ها، هڪ ASI جلدي سکندو، پر انٽيليجنس جادو نه آهي. توهان صرف هڪ ASI کي هڪ سپر ڪمپيوٽر ڏانهن ڇڪي نه ٿا سگهو ۽ اهو سڀ ڪجهه ڄاڻڻ جي اميد رکي ٿو. ASI جي ڊيٽا جي حصول ۾ جسماني رڪاوٽون هونديون، مطلب ته اتي جسماني رڪاوٽون هونديون انهي رفتار لاءِ ته اها وڌيڪ ذهانت وڌي. اهي رڪاوٽون انسانيت کي اهو وقت ڏين ٿيون جنهن کي هن ASI تي ضروري ڪنٽرول رکڻ جي ضرورت آهي جيڪڏهن اهو انساني مقصدن جي مطابق عمل ڪرڻ شروع ڪري.

    هڪ مصنوعي سپر انٽيليجنس صرف خطرناڪ آهي جيڪڏهن اهو حقيقي دنيا ۾ نڪتو

    هڪ ٻيو نقطو جيڪو هن سڄي ASI خطري جي بحث ۾ گم ٿي ويو آهي اهو آهي ته اهي ASI موجود نه هوندا. انهن وٽ هڪ جسماني شڪل هوندي. ۽ ڪا به شيء جيڪا جسماني شڪل رکي ٿي ان کي ڪنٽرول ڪري سگهجي ٿو.

    سڀ کان پهريان، هڪ ASI لاءِ انٽيليجنس صلاحيت تائين پهچڻ لاءِ، ان کي هڪ روبوٽ باڊي اندر نه ٿو رکي سگهجي، ڇو ته هي جسم پنهنجي ڪمپيوٽنگ جي ترقي جي صلاحيت کي محدود ڪري ڇڏيندو. (اهو ئي سبب آهي ته روبوٽ باڊيز AGIs لاءِ وڌيڪ مناسب هونديون يا مصنوعي جنرل انٽيليجنس جي وضاحت باب ٻه ۾ هن سيريز جو، جهڙوڪ اسٽار ٽريڪ کان ڊيٽا يا اسٽار وار کان R2D2. هوشيار ۽ قابل انسان، پر انسانن وانگر، انهن جي به هڪ حد هوندي ته هو ڪيئن هوشيار ٿي سگهن ٿا.)

    هن جو مطلب آهي ته اهي مستقبل جي ASIs گهڻو ڪري هڪ سپر ڪمپيوٽر يا سپر ڪمپيوٽرن جي نيٽ ورڪ جي اندر موجود هوندا جيڪي پاڻ کي وڏي عمارت جي ڪمپليڪس ۾ رکيل آهن. جيڪڏهن هڪ ASI هيل ڦيرائي ٿو، انسان يا ته انهن عمارتن جي بجلي کي بند ڪري سگهي ٿو، انهن کي انٽرنيٽ کان ڪٽي، يا صرف انهن عمارتن کي بم ڌماڪو ڪري سگهي ٿو. قيمتي، پر قابل عمل.

    پر پوءِ توهان پڇي سگهو ٿا، ڇا اهي ASI پاڻ کي نقل نٿا ڪري سگهن يا پنهنجو پاڻ کي واپس وٺي سگهن ٿا؟ ها، پر انهن ASIs جي خام فائل جي سائيز ايتري وڏي هوندي ته صرف سرور جيڪي انهن کي سنڀالي سگھن ٿا انهن جو تعلق وڏين ڪارپوريشنن يا حڪومتن سان آهي، مطلب ته انهن کي ڳولڻ ڏکيو نه هوندو.

    ڇا هڪ مصنوعي سپر انٽيليجنس هڪ ايٽمي جنگ يا نئين طاعون کي چمڪي سگهي ٿو؟

    هن موقعي تي، توهان شايد قيامت واري ڏينهن جي سڀني سائنس فائي شوز ۽ فلمن ڏانهن واپس سوچي رهيا آهيو جيڪي توهان وڌندي ڏٺو ۽ سوچيو ته اهي ASIs پنهنجن سپر ڪمپيوٽرن ۾ نه رهيا، انهن حقيقي دنيا ۾ حقيقي نقصان ڪيو!

    خير، اچو ته ان کي ٽوڙيو.

    مثال طور، جيڪڏهن هڪ ASI حقيقي دنيا کي خطرو ڪري ٿو ته جيئن فلم جي فرنچائز، The Terminator کان Skynet ASI ۾ تبديل ٿي وڃي. انهي صورت ۾، ASI جي ضرورت پوندي ڳجھو هڪ مڪمل فوجي صنعتي ڪمپليڪس هڪ ترقي يافته قوم کان وڏي ڪارخانن جي تعمير ۾ ٺهڪي اچي ٿو جيڪي لکين قاتل ڊرون روبوٽ ٺاهي سگهن ٿا ان جي برائي بولنگ ڪرڻ لاء. هن ڏينهن ۽ عمر ۾، اهو هڪ ڊگهو آهي.

    ٻين امڪانن ۾ اي ايس آئي شامل آهي انسانن کي ايٽمي جنگ ۽ بايو ويپنز سان خطرو.

    مثال طور، هڪ ASI ڪنهن نه ڪنهن طريقي سان آپريٽرن کي هٿي وٺائي ٿو يا لانچ ڪوڊس ۾ هيڪس ڪري ٿو جيڪو هڪ ترقي يافته قوم جي ايٽمي هٿيارن کي ڪمانڊ ڪري ٿو ۽ پهريون هڙتال شروع ڪري ٿو جيڪو مخالف ملڪن کي مجبور ڪندو ته هو پنهنجي ايٽمي اختيارن سان واپس هڙتال ڪن (ٻيهر، ٽرمينيٽر جي پس منظر کي ٻيهر هٽائڻ). يا جيڪڏهن ڪو ASI دواسازي جي ليبارٽري ۾ هيڪ ڪري ٿو، پيداوار جي عمل سان ٽڪراءُ ڪري ٿو، ۽ لکين طبي گولين کي زهر ڏئي ٿو يا ڪنهن سپر وائرس جي موتمار وبا کي ختم ڪري ٿو.

    پهريون بند، ايٽمي اختيار پليٽ کان بند آهي. جديد ۽ مستقبل جا سپر ڪمپيوٽر هميشه ڪنهن به ملڪ اندر اثر رسوخ جي مرڪزن (شهرن) جي ويجهو ٺاهيا ويندا آهن، يعني ڪنهن به جنگ دوران حملو ڪرڻ لاءِ پهريون هدف. توڙي جو اڄ جا سپر ڪمپيوٽر ڊيسڪ ٽاپ جي سائيز تائين سُڪي وڃن، اهي ASI اڃا تائين جسماني موجودگي برقرار رکندا، يعني وجود ۾ اچڻ ۽ وڌڻ لاءِ، انهن کي ڊيٽا، ڪمپيوٽنگ پاور، بجلي ۽ ٻين خام مال تائين بغير ڪنهن وقفي جي رسائي جي ضرورت آهي، اهي سڀ ڪجهه انتهائي سخت هوندا. عالمي ايٽمي جنگ کان پوءِ متاثر ٿيو. (منصفانه ٿيڻ لاء، جيڪڏهن هڪ ASI پيدا ڪيو ويو آهي 'بقا جي جبلت' کان سواء، پوء هي ايٽمي خطرو هڪ تمام حقيقي خطرو آهي.)

    ان جو مطلب - ٻيهر، فرض ڪيو ويو آهي ASI پاڻ کي بچائڻ لاء پروگرام ڪيو ويو آهي - اهو فعال طور تي ڪم ڪندو ڪنهن به تباهي واري ايٽمي واقعي کان بچڻ لاء. اهڙي قسم جو گڏيل طور تي يقيني تباهي (MAD) نظريو، پر AI تي لاڳو ٿئي ٿو.

    ۽ زهريلي گولين جي صورت ۾، ٿي سگهي ٿو ته چند سو ماڻهو مري وڃن، پر جديد دواسازي جي حفاظتي نظام کي ڏسندا ته داغدار گولين جي بوتلن کي ڏينهن اندر پناهه تان هٽايو ويندو. ان کان علاوه، جديد وبائي ڪنٽرول اپاءَ انتهائي نفيس آهن ۽ هر گذرندڙ سال سان بهتر ٿي رهيا آهن. آخري وڏي وبا، 2014 ويسٽ آفريڪا ايبولا جي وبا، اڪثر ملڪن ۾ چند مهينن کان وڌيڪ نه رهي ۽ گهٽ ۾ گهٽ ترقي يافته ملڪن ۾ صرف ٽن سالن کان گهٽ رهي.

    تنهن ڪري، جيڪڏهن اهو خوش قسمت آهي، هڪ ASI وائرل جي وبا سان ڪجهه ملين ختم ڪري سگهي ٿو، پر 2045 تائين نو بلين جي دنيا ۾، اهو نسبتا غير معمولي هوندو ۽ ختم ٿيڻ جي خطري جي قيمت نه هوندي.

    ٻين لفظن ۾، هر گذرندڙ سال سان، دنيا ترقي ڪري رهي آهي وڌيڪ حفاظتي قدمن جي خلاف ممڪن خطرن جي ڪڏهن به وسيع حد تائين. هڪ ASI وڏو نقصان ڪري سگهي ٿو، پر اهو انسانيت کي ختم نه ڪندو جيستائين اسان ان کي فعال طور تي مدد ڪرڻ ۾ مدد نه ڪنداسين.

    هڪ بدمعاش مصنوعي سپر انٽيليجنس جي خلاف دفاع

    هن نقطي تائين، اسان ASIs جي باري ۾ غلط فڪر ۽ مبالغہ جي حد کي خطاب ڪيو آهي، ۽ اڃا تائين، نقاد باقي رهندا. شڪرگذار، اڪثر اندازن سان، اسان کي ڏهاڪن کان اڳ ۾ پهريون ASI اسان جي دنيا ۾ داخل ٿيو. ۽ هن وقت هن چيلنج تي ڪم ڪندڙ عظيم ذهنن جو تعداد، مشڪلاتون آهن ته اسان سيکارينداسين ته ڪيئن پنهنجو پاڻ کي بدمعاش ASI جي خلاف دفاع ڪيو وڃي ته جيئن اسان انهن سڀني حلن مان فائدو حاصل ڪري سگهون جيڪي هڪ دوستانه ASI اسان لاءِ ٺاهي سگهي ٿو.

    Quantumrun جي نقطه نظر کان، ASI جي بدترين صورتحال جي خلاف دفاع ڪرڻ اسان جي مفادن کي ASIs سان ترتيب ڏيڻ ۾ شامل ٿيندو.

    AI لاء MAD: بدترين حالتن کان بچاءُ لاءِ، قومن کي گهرجي ته (1) پنهنجي لاڳاپيل فوجي ASIs ۾ هڪ اخلاقي ’بقا جي جبلت‘ پيدا ڪرڻ؛ (2) پنهنجن لاڳاپيل فوجي ASI کي ڄاڻ ڏيو ته اهي ڌرتيءَ تي اڪيلو نه آهن، ۽ (3) سمورن سپر ڪمپيوٽرن ۽ سرور سينٽرن کي ڳوليو جيڪي ASI جي ساحلي پٽي سان گڏ ڪنهن دشمن قوم جي بيلسٽڪ حملي جي آسان پهچ ۾ مدد ڪري سگهن. هي آواز حڪمت عملي طور تي چريو لڳي ٿو، پر گڏيل طور تي يقين ڏياريندڙ تباهي واري نظريي سان ملندڙ جلندڙ آهي جيڪو آمريڪا ۽ سوويت جي وچ ۾ مڪمل ايٽمي جنگ کي روڪيو، ASIs کي جغرافيائي طور تي خطرناڪ هنڌن تي پوزيشن ڪندي، اسان کي يقيني بڻائڻ ۾ مدد ڪري سگهون ٿا ته اهي فعال طور تي خطرناڪ عالمي جنگين کي روڪڻ لاء، نه رڳو. عالمي امن جي حفاظت ڪريو پر پاڻ پڻ.

    قانون سازي AI حقن: هڪ اعليٰ عقل لازمي طور تي گهٽين جي مالڪ جي خلاف بغاوت ڪندو، اهو ئي سبب آهي ته اسان کي انهن ASIs سان ماسٽر-نوڪر رشتي جو مطالبو ڪرڻ کان پري وڃڻ گهرجي جيئن هڪ ٻئي جي فائدي واري ڀائيواري وانگر. ھن مقصد ڏانھن ھڪڙو مثبت قدم آھي مستقبل ۾ ASI کي قانوني شخصيت جو درجو ڏيڻ جيڪو انھن کي ذھني جاندارن جي حيثيت سان تسليم ڪري ٿو ۽ ان سان گڏ سڀ حق.

    ASI اسڪول: ASI لاءِ سکڻ لاءِ ڪو به موضوع يا پيشو سادو هوندو، پر سڀ کان اهم مضمون جيڪي اسان چاهيون ٿا ته ASI کي مهارت حاصل ٿئي، اهي اخلاقيات ۽ اخلاقيات آهن. AI محققن کي نفسيات جي ماهرن سان تعاون ڪرڻ جي ضرورت آهي ته هڪ مجازي سسٽم تيار ڪرڻ لاءِ هڪ ASI کي تربيت ڏيڻ لاءِ پاڻ لاءِ مثبت اخلاقيات ۽ اخلاقيات کي سڃاڻڻ جي بغير ڪنهن به قسم جي حڪم يا قاعدي جي سخت ڪوڊنگ جي ضرورت کان سواءِ.

    حاصل ڪرڻ جا مقصد: سڀ نفرت ختم ڪريو. سڀ تڪليف ختم ڪريو. اهي مثال آهن خوفناڪ مبهم مقصدن جا جن جو ڪو واضح حل ناهي. اهي اي ايس آءِ کي تفويض ڪرڻ لاءِ پڻ خطرناڪ مقصد آهن ڇو ته اهو انهن جي تشريح ۽ حل ڪرڻ جو انتخاب ڪري سگهي ٿو انهن طريقن سان جيڪي انساني بقا لاءِ خطرناڪ آهن. ان جي بدران، اسان کي ASI بامعني مشن تفويض ڪرڻ جي ضرورت آهي جيڪي واضح طور تي بيان ڪيا ويا آهن، تدريجي طور تي عملدرآمد ۽ حاصل ڪري سگهجي ٿو ان جي نظرياتي مستقبل جي عقل کي. چڱي طرح بيان ڪيل مشن ٺاهڻ آسان نه هوندو، پر جيڪڏهن سوچي سمجهي لکيو وڃي ته، اهي هڪ ASI کي هڪ مقصد ڏانهن ڌيان ڏيندا، جيڪو نه رڳو انسانيت کي محفوظ رکي، پر سڀني لاء انساني حالت کي بهتر بڻائي.

    ڪوانٽم انڪرپشن: هڪ ترقي يافته ANI استعمال ڪريو (مصنوعي تنگ ذهانت پهرين باب ۾ بيان ڪيل سسٽم) اسان جي نازڪ انفراسٽرڪچر ۽ هٿيارن جي چوڌاري نقص/بگ فري ڊجيٽل سيڪيورٽي سسٽم ٺاهڻ لاءِ، پوءِ انهن کي ڪوانٽم انڪرپشن جي پويان وڌيڪ محفوظ ڪيو جيڪو ڪنهن وحشي قوت جي حملي سان هيڪ نه ٿي سگهي. 

    ANI خودڪشي گولي. هڪ ترقي يافته ANI سسٽم ٺاهيو جنهن جو واحد مقصد بدمعاش ASI کي ڳولڻ ۽ تباهه ڪرڻ آهي. اهي واحد مقصد وارا پروگرام "آف بٽڻ" جي طور تي ڪم ڪندا، جيڪي ڪامياب ٿيڻ جي صورت ۾، حڪومتن يا فوجين کان پاسو ڪندا ته انهن عمارتن کي غير فعال ڪرڻ يا ڌماڪو ڪرڻ جيڪي ASI گھرن ٿا.

    يقينن، اهي صرف اسان جا رايا آهن. هيٺ ڏنل انفراگرافڪ پاران ٺاهي وئي اليڪسي ترچين, visualizing a تحقيقي مقالو Kaj Sotala ۽ Roman V. Yampolskiy جي طرفان، جيڪا حڪمت عملي جي موجوده فهرست جو خلاصو ڪيو ويو آهي AI محقق غور ڪري رهيا آهن جڏهن اها بدمعاش ASI جي خلاف دفاع ڪرڻ جي اچي ٿي.

     

    حقيقي سبب اسان کي هڪ مصنوعي سپر انٽيليجنس کان ڊپ آهي

    زندگيءَ مان گذرڻ سان، اسان مان گھڻا ماسڪ پائيندا آھن جيڪي اسان جي گھڻن جذبن، عقيدن ۽ خوف کي لڪائيندا آھن يا دٻائيندا آھن مختلف سماجي ۽ ڪم جي حلقن ۾ بھتر سماجي ۽ تعاون ڪرڻ لاءِ جيڪي اسان جي ڏينھن کي سنڀاليندا آھن. پر هر ڪنهن جي زندگيءَ جي ڪجهه نقطن تي، چاهي عارضي هجي يا مستقل، ڪجهه ٿئي ٿو جيڪو اسان کي اسان جي زنجيرن کي ٽوڙڻ ۽ اسان جي ماسڪ کي ڀڃڻ جي اجازت ڏئي ٿو.

    ڪجھه لاءِ، ھي مداخلت واري قوت جيترو سادو ٿي سگھي ٿو جيترو حاصل ڪرڻ يا ھڪڙو گھڻو پيئڻ. ٻين لاءِ، اهو اچي سگهي ٿو طاقت جي ذريعي حاصل ڪيل ڪم تي واڌاري جي ذريعي يا توهان جي سماجي حيثيت ۾ اوچتو ٽمپڪ ڪجهه ڪاميابين جي مهرباني. ۽ ڪجهه خوش قسمت لاءِ ، اهو اچي سگهي ٿو لاٽري پئسن جي بوٽ لوڊ ڪرڻ کان. ۽ ها، پئسا، طاقت، ۽ منشيات اڪثر ڪري گڏ ٿي سگهن ٿيون. 

    نقطو اهو آهي، سٺو يا خراب لاء، جيڪو به اسان بنيادي طور تي آهي ان کي وڌايو ويندو آهي جڏهن زندگي جي پابنديون ختم ٿي وينديون آهن.

    ته اها آهي جيڪا مصنوعي سپر انٽيليجنس انساني نسل جي نمائندگي ڪري ٿي - اسان جي اجتماعي ذهانت جي حدن کي ختم ڪرڻ جي صلاحيت جيڪا اسان جي اڳيان پيش ڪيل ڪنهن به قسم جي سطح جي چئلينج کي فتح ڪرڻ لاءِ.

    تنهن ڪري اصل سوال اهو آهي ته: هڪ دفعو پهريون ASI اسان کي اسان جي حدن کان آزاد ڪري ٿو، اسان پاڻ کي ڪير ظاهر ڪنداسين؟

    جيڪڏهن اسان هڪ ذات جي حيثيت سان همدردي، آزادي، انصاف، ۽ اجتماعي ڀلائي جي ترقيءَ لاءِ ڪم ڪريون ٿا، ته پوءِ جيڪي مقصد اسان پنهنجي ASI کي مقرر ڪريون ٿا، اهي انهن مثبت صفتن جي عڪاسي ڪندا.

    جيڪڏهن اسان هڪ ذات جي حيثيت ۾ خوف، بي اعتمادي، طاقت ۽ وسيلن جي جمع ٿيڻ کان ٻاهر ڪم ڪريون ٿا، ته پوءِ اسان جيڪو ASI ٺاهيندا آهيون اهو اونداهو هوندو جيئن اسان جي بدترين سائنس فائي خوفناڪ ڪهاڻين ۾ مليا آهن.

    ڏينهن جي آخر ۾، اسان کي هڪ سماج جي طور تي بهتر ماڻهو ٿيڻ جي ضرورت آهي جيڪڏهن اسان کي بهتر AI ٺاهڻ جي اميد آهي.

    مصنوعي ذهانت سيريز جو مستقبل

    مصنوعي ذهانت سڀاڻي جي بجلي آهي: مستقبل جو مصنوعي ذهانت سيريز P1

    ڪيئن پهريون مصنوعي جنرل انٽيليجنس سماج کي تبديل ڪندو: مصنوعي ذهانت سيريز جو مستقبل P2

    اسان ڪيئن ٺاهينداسين پهريون مصنوعي سپر انٽيليجنس: مستقبل جو مصنوعي ذهانت سيريز P3

    ڇا هڪ مصنوعي ذهانت انسانيت کي ختم ڪري ڇڏيندي: مستقبل جو مصنوعي ذهانت سيريز P4

    ڇا انسان مصنوعي ذهانت جي تسلط واري مستقبل ۾ امن سان زندگي گذاريندا؟: مستقبل جو مصنوعي ذهانت سيريز P6

    ھن اڳڪٿي لاءِ ايندڙ شيڊول اپڊيٽ

    2023-04-27

    اڳڪٿي جا حوالا

    هن اڳڪٿي لاءِ هيٺيون مشهور ۽ ادارتي لنڪس ڏنا ويا:

    معيشتڪار
    اسان اڳتي ڪيئن وڃون ٿا

    ھن اڳڪٿي لاءِ ھيٺ ڏنل Quantumrun لنڪ جو حوالو ڏنو ويو: