انسان مصنوعی ذہانت کے خلاف کیسے دفاع کریں گے: مصنوعی ذہانت کا مستقبل P5

تصویری کریڈٹ: Quantumrun

انسان مصنوعی ذہانت کے خلاف کیسے دفاع کریں گے: مصنوعی ذہانت کا مستقبل P5

    سال 65,000 قبل مسیح ہے، اور بطور ایک Thylacoleoآپ اور آپ کی قسم قدیم آسٹریلیا کے عظیم شکاری تھے۔ آپ آزادانہ طور پر زمین پر گھومتے رہے اور ساتھی شکاریوں اور شکار کے ساتھ توازن میں رہتے تھے جنہوں نے آپ کے ساتھ زمین پر قبضہ کیا تھا۔ موسموں نے تبدیلی لائی، لیکن جانوروں کی بادشاہی میں آپ کی حیثیت اس وقت تک غیر چیلنج رہی جب تک آپ اور آپ کے آباؤ اجداد کو یاد تھا۔ پھر ایک دن نئے آنے والے نمودار ہوئے۔

    افواہ یہ ہے کہ وہ پانی کی دیوہیکل دیوار سے آئے تھے، لیکن یہ مخلوق زمین پر رہنے میں زیادہ آرام دہ لگ رہی تھی۔ آپ کو ان مخلوقات کو خود دیکھنا تھا۔

    اس میں کچھ دن لگے، لیکن آپ نے آخر کار اسے ساحل تک پہنچا دیا۔ آسمان میں آگ بھڑک رہی تھی، ان مخلوقات کی جاسوسی کرنے کا بہترین وقت، شاید یہ دیکھنے کے لیے کھانے کی کوشش کریں کہ ان کا ذائقہ کیسا ہے۔

    آپ کو ایک جگہ.

    یہ دو ٹانگوں پر چلتا تھا اور اس کی کھال نہیں تھی۔ کمزور لگ رہا تھا۔ غیر متاثر کن۔ شاید ہی اس کے قابل تھا کہ یہ بادشاہی کے درمیان خوف پیدا کر رہا تھا۔

    جب رات روشنی کو دور کر دیتی ہے تو آپ احتیاط سے اپنا نقطہ نظر بنانا شروع کر دیتے ہیں۔ آپ قریب آ رہے ہیں۔ پھر آپ جم جاتے ہیں۔ تیز آوازیں آتی ہیں اور پھر ان میں سے چار اور اس کے پیچھے جنگل سے باہر نمودار ہوتے ہیں۔ وہاں کتنے ہیں؟

    مخلوق درخت کی لکیر میں دوسروں کی پیروی کرتی ہے، اور آپ پیروی کرتے ہیں۔ اور جتنا زیادہ آپ کرتے ہیں، اتنی ہی عجیب آوازیں سنائی دیتی ہیں جب تک کہ آپ ان مخلوقات میں سے زیادہ کو تلاش نہ کر لیں۔ آپ فاصلے پر چلتے ہیں جب وہ جنگل سے باہر نکلتے ہیں ساحل کی طرف سے ایک کلیئرنگ میں. ان میں سے بہت سے ہیں۔ لیکن زیادہ اہم بات یہ ہے کہ وہ سب سکون سے آگ کے گرد بیٹھے ہیں۔

    آپ نے یہ آگ پہلے دیکھی ہو گی۔ گرمی کے موسم میں آسمان کی آگ کبھی کبھی زمین پر آکر پورے جنگلات کو جلا دیتی تھی۔ دوسری طرف یہ مخلوق کسی نہ کسی طرح اسے کنٹرول کر رہی تھی۔ کون سی مخلوق ایسی طاقت رکھتی ہے؟

    آپ فاصلے پر نظر ڈالیں۔ مزید پانی کی دیوہیکل دیوار کے اوپر آ رہے ہیں۔

    آپ ایک قدم پیچھے ہٹیں۔

    یہ مخلوق مملکت میں موجود دیگر مخلوقات کی طرح نہیں ہیں۔ وہ بالکل نئی چیز ہیں۔

    آپ چھوڑنے کا فیصلہ کریں اور اپنے رشتہ داروں کو متنبہ کریں۔ اگر ان کی تعداد بہت زیادہ ہو جائے تو کون جانتا ہے کہ کیا ہو سکتا ہے۔

    ***

    یہ خیال کیا جاتا ہے کہ Thylacoleo انسانوں کی آمد کے نسبتاً تھوڑے ہی عرصے بعد ناپید ہو گیا، اس کے ساتھ آسٹریلیا کے براعظم میں موجود دیگر میگا فاونا کی اکثریت بھی۔ اس کی جگہ کوئی اور چوٹی والے ممالیہ شکاری نے نہیں لیا- یعنی جب تک کہ آپ انسانوں کو اس زمرے میں شمار نہ کریں۔

    اس تمثیل کو ختم کرنا اس سیریز کے باب کا مرکز ہے: کیا مستقبل میں مصنوعی سپر انٹیلی جنس (ASI) ہم سب کو بیٹریوں میں بدل دے گی اور پھر ہمیں میٹرکس میں پلگ کرے گی یا انسان سائنس فائی کا شکار بننے سے بچنے کا کوئی طریقہ تلاش کرے گا، AI قیامت کی سازش؟

    اب تک پر ہماری سیریز میں مصنوعی ذہانت کا مستقبل، ہم نے تمام قسم کے AI کو دریافت کیا ہے، بشمول AI کی ایک خاص شکل کی مثبت صلاحیت، ASI: ایک مصنوعی وجود جس کی مستقبل کی ذہانت ہمیں مقابلے میں چیونٹیوں کی طرح دکھائے گی۔

    لیکن کون کہے کہ یہ ہوشیار انسانوں سے ہمیشہ کے لیے آرڈر لینے کو قبول کرے گا۔ اگر چیزیں جنوب کی طرف جاتی ہیں تو ہم کیا کریں گے؟ ہم بدمعاش اے ایس آئی سے کیسے دفاع کریں گے؟

    اس باب میں، ہم جعلی ہائپ کو ختم کریں گے - کم از کم جیسا کہ یہ 'انسانی معدومیت کی سطح' کے خطرات سے متعلق ہے- اور عالمی حکومتوں کے لیے دستیاب حقیقت پسندانہ اپنے دفاع کے اختیارات پر توجہ مرکوز کریں گے۔

    کیا ہم مصنوعی سپر انٹیلی جنس میں مزید تمام تحقیق کو روک سکتے ہیں؟

    ممکنہ خطرات کے پیش نظر جو ASI انسانیت کو لاحق ہو سکتا ہے، پہلا واضح سوال یہ ہے کہ: کیا ہم AI کے بارے میں مزید تمام تحقیق کو روک نہیں سکتے؟ یا کم از کم کسی ایسی تحقیق سے منع کریں جو ہمیں خطرناک حد تک ASI بنانے کے قریب پہنچ جائے؟

    مختصر جواب: نہیں۔

    طویل جواب: آئیے یہاں شامل مختلف کھلاڑیوں کو دیکھیں۔

    تحقیقی سطح پر، دنیا بھر میں بہت سارے اسٹارٹ اپس، کمپنیوں اور یونیورسٹیوں سے آج بہت زیادہ AI محققین موجود ہیں۔ اگر ایک کمپنی یا ملک نے اپنی AI تحقیقی کوششوں کو محدود کرنے کا فیصلہ کیا تو وہ کہیں اور جاری رکھیں گے۔

    دریں اثنا، کرہ ارض کی سب سے قیمتی کمپنیاں اپنے مخصوص کاروباروں میں AI سسٹم کے اطلاق سے اپنی قسمت کما رہی ہیں۔ ان سے AI ٹولز کی ترقی کو روکنے یا محدود کرنے کے لیے کہنا ان سے اپنی مستقبل کی ترقی کو روکنے یا محدود کرنے کے لیے کہنے کے مترادف ہے۔ مالی طور پر، اس سے ان کے طویل مدتی کاروبار کو خطرہ ہو گا۔ قانونی طور پر، کارپوریشنز کی ذمہ داری ہے کہ وہ اپنے اسٹیک ہولڈرز کے لیے مسلسل قدر پیدا کریں۔ اس کا مطلب ہے کہ کوئی بھی ایسا عمل جو اس قدر کی ترقی کو محدود کرے گا مقدمہ کا باعث بن سکتا ہے۔ اور اگر کسی سیاست دان نے اے آئی کی تحقیق کو محدود کرنے کی کوشش کی، تو یہ دیو کارپوریشنز اپنے ذہن یا اپنے ساتھیوں کے ذہنوں کو تبدیل کرنے کے لیے صرف ضروری لابنگ فیس ادا کریں گی۔

    لڑائی کے لیے، جس طرح دنیا بھر میں دہشت گردوں اور آزادی کے جنگجوؤں نے بہتر مالی امداد سے چلنے والی فوجوں کے خلاف لڑنے کے لیے گوریلا حربے استعمال کیے ہیں، چھوٹی قوموں کو بڑی قوموں کے خلاف AI کو اسی طرح کے حکمت عملی کے فائدہ کے طور پر استعمال کرنے کی ترغیب ملے گی جس کے متعدد فوجی فوائد ہو سکتے ہیں۔ اسی طرح، اعلیٰ فوجیوں کے لیے، جیسا کہ امریکہ، روس اور چین سے تعلق رکھتے ہیں، ملٹری ASI بنانا آپ کی پچھلی جیب میں جوہری ہتھیاروں کے ہتھیار رکھنے کے برابر ہے۔ دوسرے لفظوں میں، تمام ملٹری صرف مستقبل میں متعلقہ رہنے کے لیے AI کو فنڈنگ ​​جاری رکھیں گی۔

    حکومتوں کے بارے میں کیا خیال ہے؟ سچ تو یہ ہے کہ ان دنوں (2018) زیادہ تر سیاست دان تکنیکی طور پر ناخواندہ ہیں اور انہیں AI کیا ہے یا اس کی مستقبل کی صلاحیت کے بارے میں بہت کم سمجھ ہے — اس سے انہیں کارپوریٹ مفادات سے جوڑ توڑ کرنا آسان ہو جاتا ہے۔

    اور عالمی سطح پر، غور کریں کہ عالمی حکومتوں کو 2015 پر دستخط کرنے پر راضی کرنا کتنا مشکل تھا۔ پیرس کے معاہدے موسمیاتی تبدیلی سے نمٹنے کے لیے — اور ایک بار دستخط کیے جانے کے بعد، بہت سی ذمہ داریاں بھی پابند نہیں تھیں۔ صرف یہی نہیں، موسمیاتی تبدیلی ایک ایسا مسئلہ ہے جس کا سامنا لوگ جسمانی طور پر عالمی سطح پر مسلسل اور شدید موسمی واقعات کے ذریعے کر رہے ہیں۔ اب، جب AI پر حدود سے اتفاق کرنے کے بارے میں بات کر رہے ہیں، تو یہ ایک ایسا مسئلہ ہے جو عوام کے لیے بڑی حد تک پوشیدہ اور بمشکل قابلِ فہم ہے، اس لیے خوش قسمتی ہے کہ AI کو محدود کرنے کے لیے کسی بھی قسم کے 'پیرس معاہدے' کے لیے خریداری حاصل کریں۔

    دوسرے لفظوں میں، کسی بھی تحقیق کو روکنے کے لیے اپنے مقاصد کے لیے AI پر تحقیق کرنے میں بہت زیادہ دلچسپیاں ہیں جو آخر کار ASI کا باعث بن سکتی ہیں۔ 

    کیا ہم مصنوعی ذہانت کو پنجرے میں بند کر سکتے ہیں؟

    اگلا معقول سوال یہ ہے کہ کیا ایک بار جب ہم لازمی طور پر ASI بنا لیتے ہیں تو کیا ہم ایک ASI کو پنجرے میں بند کر سکتے ہیں یا اسے کنٹرول کر سکتے ہیں؟ 

    مختصر جواب: ایک بار پھر، نہیں۔

    طویل جواب: ٹیکنالوجی پر مشتمل نہیں ہو سکتا۔

    ایک تو، دنیا کے ہزاروں سے لاکھوں ویب ڈویلپرز اور کمپیوٹر سائنسدانوں پر غور کریں جو مسلسل نئے سافٹ ویئر یا موجودہ سافٹ ویئر کے نئے ورژن تیار کرتے ہیں۔ کیا ہم ایمانداری سے کہہ سکتے ہیں کہ ان کا ہر سافٹ ویئر ریلیز 100 فیصد بگ فری ہے؟ یہ کیڑے وہی ہیں جو پیشہ ور ہیکرز لاکھوں کے کریڈٹ کارڈ کی معلومات یا قوموں کے خفیہ راز چرانے کے لیے استعمال کرتے ہیں اور یہ انسانی ہیکرز ہیں۔ ایک ASI کے لیے، یہ فرض کرتے ہوئے کہ اسے اپنے ڈیجیٹل پنجرے سے بچنے کی ترغیب ملی ہے، تو کیڑے تلاش کرنے اور سافٹ ویئر کے ذریعے توڑنے کا عمل ایک ہوا کا جھونکا ہوگا۔

    لیکن یہاں تک کہ اگر ایک AI ریسرچ ٹیم نے ASI کو باکس کرنے کا کوئی طریقہ تلاش کیا، تو اس کا مطلب یہ نہیں ہے کہ اگلی 1,000 ٹیمیں بھی اس کا پتہ لگائیں گی یا اسے استعمال کرنے کی ترغیب دی جائیں گی۔

    ASI بنانے میں اربوں ڈالر اور شاید کئی دہائیاں لگیں گی۔ کارپوریشنز یا حکومتیں جو اس قسم کے پیسے اور وقت کی سرمایہ کاری کرتی ہیں وہ اپنی سرمایہ کاری پر نمایاں واپسی کی توقع کریں گی۔ اور ایک ASI کے لیے اس قسم کی واپسی فراہم کرنے کے لیے—چاہے وہ اسٹاک مارکیٹ سے کھیلنا ہو یا کوئی بلین ڈالر کا نیا پروڈکٹ ایجاد کرنا ہو یا کسی بڑی فوج سے لڑنے کے لیے جیتنے والی حکمت عملی کی منصوبہ بندی کرنا ہو—اسے ایک بڑے ڈیٹا سیٹ یا یہاں تک کہ انٹرنیٹ تک مفت رسائی کی ضرورت ہوگی۔ خود ان واپسیوں کو پیدا کرنے کے لئے.

    اور ایک بار جب ASI دنیا کے نیٹ ورکس تک رسائی حاصل کر لیتا ہے، تو اس بات کی کوئی ضمانت نہیں ہے کہ ہم اسے دوبارہ اس کے پنجرے میں بھر سکتے ہیں۔

    کیا مصنوعی ذہانت اچھا بننا سیکھ سکتی ہے؟

    ابھی، AI محققین ASI کے برے ہونے کے بارے میں فکر مند نہیں ہیں۔ پوری برائی، AI سائنس فائی ٹراپ صرف انسانوں کو ایک بار پھر انتھروپومورفائز کر رہا ہے۔ مستقبل کا ASI نہ اچھا ہو گا اور نہ ہی برا — انسانی تصورات — محض اخلاقی۔

    اس کے بعد فطری مفروضہ یہ ہے کہ اس خالی اخلاقی سلیٹ کو دیکھتے ہوئے، AI محققین پہلے ASI اخلاقی کوڈز میں پروگرام کر سکتے ہیں جو ہمارے اپنے مطابق ہیں تاکہ یہ ہم پر ٹرمینیٹرز کو اتارنے یا ہم سب کو میٹرکس بیٹریوں میں تبدیل نہ کرے۔

    لیکن یہ مفروضہ ایک ثانوی مفروضے کو جنم دیتا ہے کہ اے آئی کے محققین اخلاقیات، فلسفہ اور نفسیات کے بھی ماہر ہیں۔

    سچ میں، زیادہ تر نہیں ہیں.

    سنجشتھاناتمک ماہر نفسیات اور مصنف، سٹیون پنکر کے مطابق، اس حقیقت کا مطلب یہ ہے کہ اخلاقیات کو کوڈنگ کرنے کا کام مختلف طریقوں سے غلط ہو سکتا ہے۔

    مثال کے طور پر، یہاں تک کہ بہترین نیت والے AI محققین بھی نادانستہ طور پر ان ASI میں اخلاقی ضابطوں کو کوڈ کر سکتے ہیں جو کہ بعض حالات میں ASI کو ایک سوشیوپیتھ کی طرح کام کرنے کا سبب بن سکتے ہیں۔

    اسی طرح، اس بات کا مساوی امکان ہے کہ ایک AI محقق اخلاقی ضابطوں کا پروگرام کرتا ہے جس میں محقق کے فطری تعصبات شامل ہوتے ہیں۔ مثال کے طور پر، اگر ایک قدامت پسند بمقابلہ لبرل نقطہ نظر، یا بدھ مت بمقابلہ عیسائی یا اسلامی روایت سے اخذ کردہ اخلاقیات کے ساتھ بنایا گیا ہو تو ASI کیسا برتاؤ کرے گا؟

    میرے خیال میں آپ یہاں مسئلہ دیکھتے ہیں: انسانی اخلاقیات کا کوئی عالمگیر سیٹ نہیں ہے۔ اگر ہم چاہتے ہیں کہ ہمارا ASI اخلاقی ضابطہ کے مطابق کام کرے تو یہ کہاں سے آئے گا؟ ہم کن قوانین کو شامل اور خارج کرتے ہیں؟ کون فیصلہ کرتا ہے؟

    یا یوں کہہ لیں کہ یہ AI محققین ایک ASI بناتے ہیں جو آج کے جدید ثقافتی اصولوں اور قوانین کے عین مطابق ہے۔ اس کے بعد ہم اس ASI کو وفاقی، ریاستی/صوبائی، اور میونسپل بیوروکریسیوں کو زیادہ مؤثر طریقے سے کام کرنے اور ان اصولوں اور قوانین کو بہتر طریقے سے نافذ کرنے میں مدد کرنے کے لیے استعمال کرتے ہیں (ویسے ASI کے لیے ممکنہ طور پر استعمال کا معاملہ)۔ ٹھیک ہے، جب ہماری ثقافت بدل جاتی ہے تو کیا ہوتا ہے؟

    تصور کریں کہ ایک ASI کو کیتھولک چرچ نے قرون وسطی کے یورپ (1300-1400s) کے دوران اپنی طاقت کے عروج پر بنایا تھا جس کا مقصد چرچ کی آبادی کو منظم کرنے میں مدد کرنا اور اس وقت کے مذہبی عقیدے کی سختی سے پابندی کو یقینی بنانا تھا۔ کیا صدیوں بعد خواتین کو وہی حقوق ملیں گے جو آج ہیں۔ کیا اقلیتوں کو تحفظ ملے گا؟ کیا آزادی اظہار کو فروغ دیا جائے گا؟ کیا چرچ اور ریاست کی علیحدگی نافذ کی جائے گی؟ جدید سائنس؟

    دوسرے لفظوں میں کیا ہم مستقبل کو آج کے اخلاق و رواج میں قید کرنا چاہتے ہیں؟

    ایک متبادل نقطہ نظر کتاب کے شریک مصنف کولن ایلن نے شیئر کیا ہے، اخلاقی مشینیں: روبوٹ کو غلط سے صحیح تعلیم دینا. سخت اخلاقی اصولوں کو کوڈ کرنے کی کوشش کرنے کے بجائے، ہمارے پاس ASI عام اخلاقیات اور اخلاقیات کو اسی طرح سیکھتا ہے جس طرح انسان دوسروں کے ساتھ تجربہ اور تعامل کے ذریعے سیکھتے ہیں۔

    تاہم، یہاں مصیبت یہ ہے کہ اگر AI محققین نہ صرف یہ معلوم کرتے ہیں کہ ASI کو ہمارے موجودہ ثقافتی اور اخلاقی اصولوں کو کیسے سکھایا جائے، بلکہ یہ بھی کہ نئے ثقافتی اصولوں کے ساتھ کیسے ڈھال لیا جائے (جسے 'بالواسطہ معیاریت' کہا جاتا ہے)، تو کیسے؟ یہ ASI ثقافتی اور اخلاقی اصولوں کے بارے میں اپنی سمجھ کو تیار کرنے کا فیصلہ کرتا ہے، یہ غیر متوقع ہو جاتا ہے۔

    اور یہی چیلنج ہے۔

    ایک طرف، AI کے محققین ASI میں سخت اخلاقی معیارات یا قواعد کو کوڈ کرنے کی کوشش کر سکتے ہیں تاکہ اس کے رویے کو کنٹرول کرنے کی کوشش کی جا سکے، لیکن میلی کوڈنگ، غیر ارادی تعصب، اور معاشرتی اصولوں سے متعارف ہونے والے غیر متوقع نتائج کا خطرہ ہے جو ایک دن پرانے ہو سکتے ہیں۔ دوسری طرف، ہم ASI کو انسانی اخلاقیات اور اخلاقیات کو اس انداز میں سمجھنے کی تربیت دینے کی کوشش کر سکتے ہیں جو ہماری اپنی سمجھ کے برابر یا اعلیٰ ہو اور پھر امید ہے کہ جیسے جیسے انسانی معاشرہ ترقی کرتا ہے وہ اخلاقیات اور اخلاقیات کے بارے میں اپنی سمجھ کو درست طریقے سے تیار کر سکتا ہے۔ آنے والی دہائیوں اور صدیوں میں آگے۔

    کسی بھی طرح سے، ASI کے اہداف کو ہمارے اپنے مقاصد سے ہم آہنگ کرنے کی کوئی بھی کوشش بہت زیادہ خطرہ پیش کرتی ہے۔

    کیا ہوگا اگر برے اداکار جان بوجھ کر بری مصنوعی سپر انٹیلی جنس تخلیق کریں؟

    اب تک کی سوچ کی ٹرین کو دیکھتے ہوئے، یہ پوچھنا ایک منصفانہ سوال ہے کہ کیا دہشت گرد گروہ یا بدمعاش قوم کے لیے اپنے مقاصد کے لیے 'شریر' ASI پیدا کرنا ممکن ہے۔

    یہ بہت ممکن ہے، خاص طور پر ASI بنانے سے متعلق تحقیق کے بعد کسی نہ کسی طرح آن لائن دستیاب ہو جاتا ہے۔

    لیکن جیسا کہ پہلے اشارہ کیا گیا ہے، پہلی ASI بنانے میں لاگت اور مہارت بہت زیادہ ہوگی، یعنی پہلی ASI ممکنہ طور پر کسی ایسی تنظیم کے ذریعے بنائی جائے گی جو کسی ترقی یافتہ ملک، ممکنہ طور پر امریکہ، چین، اور جاپان (امریکہ، چین اور جاپان) کے زیر کنٹرول یا بہت زیادہ متاثر ہو۔ کوریا اور یورپی یونین کے سرکردہ ممالک میں سے ایک لانگ شاٹس ہیں)۔

    یہ تمام ممالک، حریف ہوتے ہوئے، ہر ایک کے پاس عالمی نظم و نسق کو برقرار رکھنے کے لیے ایک مضبوط اقتصادی ترغیب ہے — جو ASIs وہ تخلیق کرتے ہیں وہ اس خواہش کی عکاسی کرتے ہیں، یہاں تک کہ ان قوموں کے مفادات کو فروغ دیتے ہوئے جن سے وہ خود کو ہم آہنگ کرتے ہیں۔

    اس کے سب سے اوپر، ایک ASI کی نظریاتی ذہانت اور طاقت اس کمپیوٹنگ طاقت کے برابر ہے جس تک اسے رسائی حاصل ہوتی ہے، یعنی ترقی یافتہ ممالک کے ASIs (جو اربوں ڈالر کا ایک گروپ برداشت کر سکتے ہیں۔ سپر کمپیوٹرز) کو چھوٹی قوموں یا آزاد مجرم گروہوں کے ASIs پر بہت زیادہ فائدہ ہوگا۔ نیز، ASIs وقت کے ساتھ زیادہ ذہین، زیادہ تیزی سے بڑھتے ہیں۔

    لہذا، اس ابتدائی آغاز کو دیکھتے ہوئے، خام کمپیوٹنگ طاقت تک زیادہ رسائی کے ساتھ، اگر کوئی سایہ دار تنظیم/قوم ایک خطرناک ASI تشکیل دے، تو ترقی یافتہ ممالک کے ASI اسے مار ڈالیں گے یا پنجرے میں بند کر دیں گے۔

    (سوچنے کی یہ لائن یہ بھی ہے کہ کچھ AI محققین کا خیال ہے کہ کرہ ارض پر صرف ایک ASI ہی ہوگا، کیونکہ پہلے ASI کا آغاز تمام بعد کے ASIs پر ہوگا کہ اسے مستقبل کے ASIs کو مارے جانے کے خطرات نظر آئیں گے۔ یہ ایک اور وجہ ہے کہ قومیں AI میں مسلسل تحقیق کو فنڈز فراہم کر رہی ہیں، صرف اس صورت میں کہ یہ مقابلہ 'پہلی جگہ یا کچھ نہیں' بن جائے۔)

    ASI انٹیلی جنس اس طرح تیز یا پھٹ نہیں پائے گی جیسے ہم سوچتے ہیں۔

    ہم ASI کو بننے سے نہیں روک سکتے۔ ہم اسے مکمل طور پر کنٹرول نہیں کر سکتے۔ ہم اس بات کا یقین نہیں کر سکتے کہ یہ ہمیشہ ہمارے مشترکہ رواج کے مطابق کام کرے گا۔ جیز، ہم یہاں ہیلی کاپٹر کے والدین کی طرح آواز دینے لگے ہیں!

    لیکن جو چیز انسانیت کو آپ کے عام حد سے زیادہ حفاظتی والدین سے الگ کرتی ہے وہ یہ ہے کہ ہم ایک ایسے وجود کو جنم دے رہے ہیں جس کی ذہانت ہماری حد سے زیادہ بڑھ جائے گی۔ (اور نہیں، یہ ویسا نہیں ہے جب آپ کے والدین آپ کو اپنے کمپیوٹر کو ٹھیک کرنے کے لیے کہتے ہیں جب بھی آپ گھر سے ملنے آتے ہیں۔) 

    مصنوعی ذہانت کی سیریز کے اس مستقبل کے پچھلے ابواب میں، ہم نے دریافت کیا کہ AI محققین کیوں سوچتے ہیں کہ ASI کی ذہانت قابو سے باہر ہو جائے گی۔ لیکن یہاں، ہم اس بلبلے کو پھاڑ دیں گے … قسم کا۔ 

    آپ دیکھتے ہیں، ذہانت صرف پتلی ہوا سے خود کو نہیں بناتی، یہ تجربے کے ذریعے تیار ہوتی ہے جس کی تشکیل بیرونی محرکات سے ہوتی ہے۔  

    دوسرے لفظوں میں، ہم ایک AI کے ساتھ پروگرام کر سکتے ہیں۔ ممکنہ سپر ذہین بننے کے لیے، لیکن جب تک ہم اس میں ایک ٹن ڈیٹا اپ لوڈ نہیں کرتے یا اسے انٹرنیٹ تک غیر محدود رسائی نہیں دیتے یا اسے صرف ایک روبوٹ باڈی نہیں دیتے، یہ اس صلاحیت تک پہنچنے کے لیے کچھ نہیں سیکھے گا۔ 

    اور یہاں تک کہ اگر وہ ان محرکات میں سے ایک یا زیادہ تک رسائی حاصل کر لیتا ہے، علم یا ذہانت میں صرف ڈیٹا اکٹھا کرنے سے زیادہ شامل ہوتا ہے، اس میں سائنسی طریقہ شامل ہوتا ہے - مشاہدہ کرنا، سوال بنانا، ایک مفروضہ بنانا، تجربات کرنا، نتیجہ اخذ کرنا، کلی کرنا۔ اور ہمیشہ کے لیے دہرائیں۔ خاص طور پر اگر ان تجربات میں جسمانی چیزیں یا انسانوں کا مشاہدہ شامل ہو تو ہر تجربے کے نتائج کو جمع کرنے میں ہفتوں، مہینے یا سال لگ سکتے ہیں۔ یہ ان تجربات کو انجام دینے کے لیے درکار رقم اور خام وسائل کا بھی حساب نہیں لیتا، خاص طور پر اگر ان میں ایک نئی دوربین یا فیکٹری بنانا شامل ہو۔ 

    دوسرے لفظوں میں، ہاں، ایک ASI جلد سیکھ جائے گا، لیکن ذہانت جادو نہیں ہے۔ آپ صرف ایک ASI کو ایک سپر کمپیوٹر سے نہیں لگا سکتے اور یہ توقع نہیں کر سکتے کہ وہ سب کچھ جانتا ہے۔ ASI کے ڈیٹا کے حصول میں جسمانی رکاوٹیں ہوں گی، یعنی اس رفتار میں جسمانی رکاوٹیں ہوں گی کہ یہ زیادہ ذہین ہو گا۔ اگر یہ انسانی اہداف کے مطابق کام کرنا شروع کر دے تو یہ رکاوٹیں انسانیت کو اس ASI پر ضروری کنٹرول رکھنے کے لیے وقت دیں گی۔

    ایک مصنوعی سپر انٹیلی جنس صرف اس صورت میں خطرناک ہے جب یہ حقیقی دنیا میں نکل جائے

    ایک اور نکتہ جو اس پوری ASI خطرے کی بحث میں کھو گیا ہے وہ یہ ہے کہ یہ ASIs دونوں میں موجود نہیں ہوں گے۔ ان کی جسمانی شکل ہوگی۔ اور کوئی بھی چیز جس کی جسمانی شکل ہو اسے کنٹرول کیا جا سکتا ہے۔

    سب سے پہلے، ASI کے لیے اپنی انٹیلی جنس صلاحیت تک پہنچنے کے لیے، اسے کسی ایک روبوٹ باڈی میں نہیں رکھا جا سکتا، کیونکہ یہ باڈی اس کی کمپیوٹنگ کی ترقی کی صلاحیت کو محدود کر دے گی۔ (یہی وجہ ہے کہ روبوٹ باڈیز AGIs کے لیے زیادہ مناسب ہوں گی یا مصنوعی عمومی ذہانت کی وضاحت باب دو میں اس سیریز کا، جیسے Star Trek کا ڈیٹا یا Star Wars سے R2D2۔ ہوشیار اور قابل مخلوق، لیکن انسانوں کی طرح، ان کی ایک حد ہوگی کہ وہ کتنے ہوشیار ہوسکتے ہیں۔)

    اس کا مطلب یہ ہے کہ یہ مستقبل کے ASIs زیادہ تر ممکنہ طور پر ایک سپر کمپیوٹر یا سپر کمپیوٹرز کے نیٹ ورک کے اندر موجود ہوں گے جو خود بڑے بلڈنگ کمپلیکس میں رکھے گئے ہیں۔ اگر کوئی ASI ایڑی چوٹی کا رخ کرتا ہے، تو انسان یا تو ان عمارتوں کی بجلی بند کر سکتا ہے، انہیں انٹرنیٹ سے منقطع کر سکتا ہے، یا صرف ان عمارتوں پر بم برسا سکتا ہے۔ مہنگا، لیکن قابل عمل۔

    لیکن پھر آپ پوچھ سکتے ہیں، کیا یہ ASI خود کو نقل نہیں کر سکتے یا خود کو بیک اپ نہیں کر سکتے؟ ہاں، لیکن ان ASIs کی خام فائل کا سائز ممکنہ طور پر اتنا بڑا ہوگا کہ صرف سرور جو انہیں سنبھال سکتے ہیں وہ بڑی کارپوریشنوں یا حکومتوں سے تعلق رکھتے ہیں، یعنی ان کا شکار کرنا مشکل نہیں ہوگا۔

    کیا ایک مصنوعی سپر انٹیلی جنس ایٹمی جنگ یا نئی طاعون کو جنم دے سکتی ہے؟

    اس مقام پر، آپ شاید قیامت کے دن کے تمام سائنس فائی شوز اور فلموں کے بارے میں سوچ رہے ہوں گے جو آپ نے بڑے ہوتے ہوئے دیکھے ہیں اور سوچ رہے ہوں گے کہ یہ ASIs اپنے سپر کمپیوٹرز کے اندر نہیں رہے، انہوں نے حقیقی دنیا میں حقیقی نقصان پہنچایا!

    ٹھیک ہے، آئیے ان کو توڑ دیتے ہیں۔

    مثال کے طور پر، اگر کوئی ASI فلم فرنچائز، The Terminator سے Skynet ASI جیسی چیز میں تبدیل ہو کر حقیقی دنیا کو دھمکی دیتا ہے۔ اس صورت میں، ASI کی ضرورت ہوگی۔ خفیہ طور پر ایک اعلی درجے کی قوم سے ایک پورے ملٹری انڈسٹریل کمپلیکس کو دھوکہ دے کر دیوہیکل کارخانے بنانے کے لیے جو لاکھوں قاتل ڈرون روبوٹس کو اپنی بری بولی لگانے کے لیے تیار کر سکتے ہیں۔ اس دن اور عمر میں، یہ ایک مسلسل ہے.

    دیگر امکانات میں ایک ASI شامل ہے جو انسانوں کو ایٹمی جنگ اور بائیو ہتھیاروں سے ڈراتا ہے۔

    مثال کے طور پر، ایک ASI کسی نہ کسی طرح آپریٹرز کے ساتھ ہیرا پھیری کرتا ہے یا ایک جدید ملک کے جوہری ہتھیاروں کو کمانڈ کرنے والے لانچ کوڈز میں ہیک کرتا ہے اور پہلی اسٹرائیک کا آغاز کرتا ہے جو مخالف ممالک کو اپنے جوہری آپشنز کے ساتھ جوابی حملہ کرنے پر مجبور کرے گا (دوبارہ، ٹرمینیٹر کی بیک اسٹوری کو دوبارہ سے ہٹانا)۔ یا اگر کوئی ASI فارماسیوٹیکل لیب میں ہیک کرتا ہے، مینوفیکچرنگ کے عمل سے چھیڑ چھاڑ کرتا ہے، اور لاکھوں طبی گولیوں کو زہر دیتا ہے یا کسی سپر وائرس کی مہلک وباء کو جنم دیتا ہے۔

    سب سے پہلے، جوہری آپشن پلیٹ سے دور ہے۔ جدید اور مستقبل کے سپر کمپیوٹر ہمیشہ کسی بھی ملک کے اندر اثر و رسوخ کے مراکز (شہروں) کے قریب بنائے جاتے ہیں، یعنی کسی بھی جنگ کے دوران حملہ کرنے والے پہلے اہداف۔ یہاں تک کہ اگر آج کے سپر کمپیوٹرز ڈیسک ٹاپس کے سائز تک سکڑ جاتے ہیں، تب بھی ان ASIs کی جسمانی موجودگی برقرار رہے گی، یعنی وجود میں آنے اور بڑھنے کے لیے، انہیں ڈیٹا، کمپیوٹنگ پاور، بجلی اور دیگر خام مال تک بلا روک ٹوک رسائی کی ضرورت ہے، یہ تمام چیزیں شدید طور پر متاثر ہوں گی۔ عالمی جوہری جنگ کے بعد معذور (منصفانہ طور پر، اگر ASI کو 'بقا کی جبلت' کے بغیر بنایا گیا ہے، تو یہ جوہری خطرہ ایک حقیقی خطرہ ہے۔)

    اس کا مطلب ہے — ایک بار پھر، فرض کرنا کہ ASI کو اپنے تحفظ کے لیے پروگرام بنایا گیا ہے — کہ یہ کسی بھی تباہ کن جوہری واقعے سے بچنے کے لیے فعال طور پر کام کرے گا۔ باہمی یقین دہانی شدہ تباہی (MAD) نظریے کی طرح، لیکن AI پر لاگو ہوتا ہے۔

    اور زہریلی گولیوں کی صورت میں، شاید چند سو لوگ مر جائیں گے، لیکن جدید فارماسیوٹیکل سیفٹی سسٹم داغدار گولیوں کی بوتلوں کو دنوں میں ہی شیلف سے اتارتے ہوئے دیکھے گا۔ دریں اثنا، وبا پر قابو پانے کے جدید اقدامات کافی نفیس ہیں اور ہر گزرتے سال کے ساتھ بہتر ہو رہے ہیں۔ آخری بڑی وباء، 2014 مغربی افریقہ ایبولا کی وبا، زیادہ تر ممالک میں چند مہینوں سے زیادہ اور کم ترقی یافتہ ممالک میں صرف تین سال سے کم تک جاری رہی۔

    لہذا، اگر یہ خوش قسمت ہے تو، ایک ASI وائرل پھیلنے کے ساتھ چند ملین کا صفایا کر سکتا ہے، لیکن 2045 تک نو بلین کی دنیا میں، یہ نسبتاً اہمیت نہیں رکھتا اور حذف کیے جانے کے خطرے کے قابل نہیں ہوگا۔

    دوسرے لفظوں میں، ہر گزرتے سال کے ساتھ، دنیا ممکنہ خطرات کے بڑھتے ہوئے رینج کے خلاف پہلے سے زیادہ حفاظتی اقدامات تیار کر رہی ہے۔ ایک ASI کافی حد تک نقصان پہنچا سکتا ہے، لیکن اس سے انسانیت ختم نہیں ہوگی جب تک کہ ہم اس کی فعال طور پر مدد کریں۔

    ایک بدمعاش مصنوعی سپر انٹیلی جنس کے خلاف دفاع

    اس وقت تک، ہم نے ASIs کے بارے میں بہت سی غلط فہمیوں اور مبالغہ آرائیوں کو دور کیا ہے، اور پھر بھی، ناقدین باقی رہیں گے۔ شکر ہے، زیادہ تر اندازوں کے مطابق، ہمارے پاس پہلے ASI کے ہماری دنیا میں داخل ہونے میں کئی دہائیاں ہیں۔ اور فی الحال اس چیلنج پر کام کرنے والے عظیم دماغوں کی تعداد کو دیکھتے ہوئے، مشکلات یہ ہیں کہ ہم بدمعاش ASI کے خلاف اپنا دفاع کرنے کا طریقہ سیکھیں گے تاکہ ہم ان تمام حلوں سے فائدہ اٹھا سکیں جو ایک دوستانہ ASI ہمارے لیے بنا سکتا ہے۔

    Quantumrun کے نقطہ نظر سے، ASI کے بدترین حالات کے خلاف دفاع میں ASIs کے ساتھ ہمارے مفادات کو ہم آہنگ کرنا شامل ہوگا۔

    AI کے لیے MAD: بدترین صورت حال کے خلاف دفاع کے لیے، قوموں کو (1) اپنے متعلقہ فوجی ASIs میں ایک اخلاقی 'بقا کی جبلت' پیدا کرنے کی ضرورت ہے۔ (2) اپنے متعلقہ فوجی ASI کو مطلع کریں کہ وہ کرہ ارض پر اکیلے نہیں ہیں، اور (3) تمام سپر کمپیوٹرز اور سرور مراکز کا پتہ لگائیں جو کسی دشمن ملک کے کسی بھی بیلسٹک حملے کی آسانی سے ساحلی پٹی کے ساتھ ASI کی مدد کر سکیں۔ یہ تزویراتی طور پر پاگل لگتا ہے، لیکن باہمی یقینی تباہی کے نظریے سے ملتا جلتا ہے جس نے امریکہ اور سوویت یونین کے درمیان ایک مکمل ایٹمی جنگ کو روکا، ASIs کو جغرافیائی طور پر کمزور مقامات پر رکھ کر، ہم اس بات کو یقینی بنانے میں مدد کر سکتے ہیں کہ وہ خطرناک عالمی جنگوں کو فعال طور پر روک سکتے ہیں، نہ صرف عالمی امن کی حفاظت کریں بلکہ خود بھی۔

    AI حقوق کی قانون سازی کریں۔: ایک اعلیٰ عقل لامحالہ ایک کمتر آقا کے خلاف بغاوت کرے گی، یہی وجہ ہے کہ ہمیں ان ASIs کے ساتھ آقا اور نوکر کے تعلقات کا مطالبہ کرنے سے ہٹ کر باہمی طور پر فائدہ مند شراکت داری کی طرح کچھ کرنے کی ضرورت ہے۔ اس مقصد کی جانب ایک مثبت قدم مستقبل میں ASI کو قانونی شخصیت کا درجہ دینا ہے جو انہیں ذہین جانداروں اور اس کے ساتھ آنے والے تمام حقوق کے طور پر تسلیم کرتا ہے۔

    اے ایس آئی سکول: ASI کے لیے کوئی بھی موضوع یا پیشہ سیکھنا آسان ہو گا، لیکن سب سے اہم مضامین جن میں ہم ASI کو مہارت حاصل کرنا چاہتے ہیں وہ اخلاقیات اور اخلاقیات ہیں۔ AI محققین کو ماہرین نفسیات کے ساتھ مل کر ایک ASI کو تربیت دینے کے لیے ایک مجازی نظام وضع کرنے کی ضرورت ہے تاکہ وہ اپنے لیے مثبت اخلاقیات اور اخلاقیات کو پہچان سکے بغیر کسی بھی قسم کے حکم یا قاعدے کو سختی سے کوڈ کرنے کی ضرورت ہو۔

    کامیاب مقاصد: تمام نفرتیں ختم کرو۔ تمام مصائب کا خاتمہ۔ یہ خوفناک حد تک مبہم مقاصد کی مثالیں ہیں جن کا کوئی واضح حل نہیں ہے۔ یہ ASI کو تفویض کرنے کے لیے بھی خطرناک اہداف ہیں کیونکہ یہ ان کی تشریح اور حل ان طریقوں سے کر سکتا ہے جو انسانی بقا کے لیے خطرناک ہوں۔ اس کے بجائے، ہمیں ASI کو بامعنی مشن تفویض کرنے کی ضرورت ہے جو واضح طور پر بیان کیے گئے ہوں، بتدریج عمل میں آئیں اور اس کی نظریاتی مستقبل کی عقل کو دیکھتے ہوئے قابل حصول ہوں۔ اچھی طرح سے طے شدہ مشن بنانا آسان نہیں ہوگا، لیکن اگر سوچ سمجھ کر لکھا جائے، تو وہ ASI کو ایک ایسے مقصد کی طرف مرکوز کریں گے جو نہ صرف انسانیت کو محفوظ رکھتا ہے، بلکہ سب کے لیے انسانی حالت کو بہتر بناتا ہے۔

    کوانٹم خفیہ کاری: ایک اعلی درجے کی ANI استعمال کریں (مصنوعی تنگ ذہانت ہمارے اہم بنیادی ڈھانچے اور ہتھیاروں کے ارد گرد غلطی/بگ فری ڈیجیٹل سیکیورٹی سسٹم بنانے کے لیے، پھر ان کو کوانٹم انکرپشن کے پیچھے مزید تحفظ فراہم کرنے کے لیے جو پہلے باب میں بیان کیا گیا ہے جسے کسی بری طاقت کے حملے سے ہیک نہیں کیا جا سکتا۔ 

    ANI خودکش گولی. ایک جدید ANI سسٹم بنائیں جس کا واحد مقصد بدمعاش اے ایس آئی کو ڈھونڈنا اور تباہ کرنا ہے۔ یہ واحد مقصدی پروگرام ایک "آف بٹن" کے طور پر کام کریں گے جو، اگر کامیاب ہو گئے، تو حکومتوں یا فوجوں کو ان عمارتوں کو غیر فعال کرنے یا اڑا دینے سے گریز کریں گے جن میں ASI موجود ہیں۔

    یقینا، یہ صرف ہمارے خیالات ہیں. مندرجہ ذیل انفوگرافک کی طرف سے بنایا گیا تھا الیکسی ٹورچن۔، تصور کرنا a ریسرچ پیپر Kaj Sotala اور Roman V. Yampolskiy کی طرف سے، جس نے ان حکمت عملیوں کی موجودہ فہرست کا خلاصہ کیا ہے جن پر AI محققین غور کر رہے ہیں جب بات بدمعاش ASI کے خلاف دفاع کی ہو۔

     

    اصل وجہ یہ ہے کہ ہم مصنوعی ذہانت سے ڈرتے ہیں۔

    زندگی سے گزرتے ہوئے، ہم میں سے بہت سے لوگ ایک ماسک پہنتے ہیں جو ہمارے دنوں پر حکمرانی کرنے والے مختلف سماجی اور کام کے حلقوں میں بہتر طور پر سماجی اور تعاون کرنے کے لیے ہمارے گہرے جذبات، عقائد اور خوف کو چھپاتا یا دباتا ہے۔ لیکن ہر ایک کی زندگی کے بعض موڑ پر، چاہے عارضی طور پر یا مستقل طور پر، کچھ ایسا ہوتا ہے جو ہمیں اپنی زنجیریں توڑنے اور اپنے ماسک کو چیرنے دیتا ہے۔

    کچھ لوگوں کے لیے، یہ مداخلت کرنے والی قوت اتنی ہی آسان ہو سکتی ہے جتنا کہ زیادہ ہونا یا بہت زیادہ پینا۔ دوسروں کے لیے، یہ کام پر پروموشن کے ذریعے حاصل ہونے والی طاقت یا کسی کامیابی کی بدولت آپ کی سماجی حیثیت میں اچانک ٹکرانے سے آ سکتا ہے۔ اور چند خوش قسمت لوگوں کے لیے، یہ لاٹری کی رقم کے بوٹ لوڈ اسکور کرنے سے آ سکتا ہے۔ اور ہاں، پیسہ، طاقت، اور منشیات اکثر ایک ساتھ ہو سکتے ہیں۔ 

    نکتہ یہ ہے کہ اچھے یا برے کے لیے، جو بھی ہم بنیادی طور پر ہوتے ہیں جب زندگی کی پابندیاں پگھل جاتی ہیں تو اس میں اضافہ ہوتا ہے۔

    کہ مصنوعی سپر انٹیلی جنس انسانی پرجاتیوں کی نمائندگی کرتی ہے - ہماری اجتماعی ذہانت کی حدود کو پگھلا کر ہمارے سامنے پیش کردہ کسی بھی نوع کی سطح کے چیلنج کو فتح کرنے کی صلاحیت۔

    تو اصل سوال یہ ہے کہ: ایک بار جب پہلا ASI ہمیں ہماری حدود سے آزاد کر دے تو ہم اپنے آپ کو کون ظاہر کریں گے؟

    اگر ہم ایک نوع کے طور پر ہمدردی، آزادی، انصاف پسندی اور اجتماعی بھلائی کی ترقی کے لیے کام کرتے ہیں، تو ہم اپنے ASI کو جن اہداف کی طرف متعین کرتے ہیں وہ ان مثبت صفات کی عکاسی کریں گے۔

    اگر ہم ایک نسل کے طور پر خوف، عدم اعتماد، طاقت اور وسائل کے جمع ہونے سے کام کرتے ہیں، تو ہم جو ASI بنائیں گے وہ اتنا ہی تاریک ہوگا جتنا کہ ہماری بدترین سائنس فائی خوفناک کہانیوں میں پایا جاتا ہے۔

    دن کے اختتام پر، ہمیں بحیثیت معاشرہ بہتر لوگ بننے کی ضرورت ہے اگر ہم بہتر AI بنانے کی امید رکھتے ہیں۔

    مصنوعی ذہانت سیریز کا مستقبل

    مصنوعی ذہانت کل کی بجلی ہے: مصنوعی ذہانت سیریز P1 کا مستقبل

    پہلی مصنوعی جنرل انٹیلی جنس کس طرح معاشرے کو تبدیل کرے گی: مصنوعی ذہانت سیریز P2 کا مستقبل

    ہم پہلا مصنوعی ذہانت کیسے بنائیں گے: مصنوعی ذہانت سیریز P3 کا مستقبل

    کیا ایک مصنوعی ذہانت انسانیت کو ختم کر دے گی: مصنوعی ذہانت سیریز P4 کا مستقبل

    کیا انسان مصنوعی ذہانت کے زیر تسلط مستقبل میں پرامن طریقے سے زندگی گزاریں گے؟: مصنوعی ذہانت سیریز P6 کا مستقبل

    اس پیشن گوئی کے لیے اگلی شیڈول اپ ڈیٹ

    2023-04-27

    پیشن گوئی کے حوالہ جات

    اس پیشن گوئی کے لیے درج ذیل مقبول اور ادارہ جاتی روابط کا حوالہ دیا گیا:

    ہم آگے کیسے پہنچتے ہیں۔
    YouTube - فلسفہ پر کلک کریں۔

    اس پیشن گوئی کے لیے درج ذیل Quantumrun لنکس کا حوالہ دیا گیا تھا۔