چگونه انسان ها در برابر یک ابر هوش مصنوعی دفاع خواهند کرد: آینده هوش مصنوعی P5
چگونه انسان ها در برابر یک ابر هوش مصنوعی دفاع خواهند کرد: آینده هوش مصنوعی P5
سال 65,000 ق.م است و به عنوان یک Thylacoleo، شما و هم نوعانتان شکارچیان بزرگ استرالیای باستان بودید. شما آزادانه در زمین پرسه می زدید و با شکارچیان و طعمه هایی که در کنار شما زمین را اشغال کرده بودند در تعادل زندگی می کردید. فصول تغییراتی را به ارمغان آوردند، اما موقعیت شما در قلمرو حیوانات تا زمانی که شما و اجدادتان به یاد داشته باشید، بدون چالش باقی ماند. سپس یک روز، تازه واردان ظاهر شدند.
شایعات حاکی از آن است که آنها از دیوار غول پیکر آبی وارد شده اند، اما زندگی این موجودات در خشکی راحت تر به نظر می رسید. باید خودت این موجودات را می دیدی.
چند روز طول کشید، اما بالاخره به ساحل رسیدی. آتش در آسمان در حال غروب بود، زمان مناسبی برای جاسوسی از این موجودات، شاید حتی سعی کنید یکی از آنها را بخورید تا ببینید مزه آنها چگونه است.
شما یکی را تشخیص می دهید.
روی دو پا راه می رفت و خز نداشت. ضعیف به نظر می رسید. بی تاثیر به سختی ارزش ترسی که در میان پادشاهی ایجاد می کرد را ندارد.
وقتی شب نور را از بین می برد، با دقت شروع به رویکرد خود می کنید. نزدیک تر میشی بعد یخ میزنی صداهای بلند بلند می شود و سپس چهار نفر دیگر از جنگل پشت آن ظاهر می شوند. چند نفر هستند؟
موجودی بقیه را به سمت خط درخت دنبال می کند و شما هم دنبال می کنید. و هر چه بیشتر این کار را انجام دهید، صداهای عجیب تری می شنوید تا زمانی که تعداد بیشتری از این موجودات را مشاهده کنید. در حالی که آنها از جنگل خارج می شوند و به سمت پاکی کنار ساحل می آیند، از فاصله دور دنبال می کنید. تعداد زیادی از آنها وجود دارد. اما مهمتر از آن، همه آنها آرام دور آتش نشسته اند.
شما قبلاً این آتش سوزی ها را دیده اید. در فصل گرما، آتش در آسمان گاهی اوقات از زمین بازدید می کرد و کل جنگل ها را می سوزاند. از طرف دیگر این موجودات به نوعی آن را کنترل می کردند. چه نوع موجوداتی می توانند چنین قدرتی داشته باشند؟
به دوردست ها نگاه می کنی تعداد بیشتری از دیوار غول پیکر آب در حال آمدن است.
شما یک قدم به عقب برگردید.
این موجودات مانند سایر موجودات در پادشاهی نیستند. آنها چیز کاملا جدیدی هستند.
شما تصمیم می گیرید ترک کنید و به خویشاوندان خود هشدار دهید. اگر تعداد آنها خیلی زیاد شود، چه کسی می داند چه اتفاقی ممکن است بیفتد.
***
اعتقاد بر این است که Thylacoleo در مدت زمان نسبتاً کوتاهی پس از ورود انسان ها منقرض شده است، همراه با اکثر حیوانات بزرگ دیگر در قاره استرالیا. هیچ شکارچی پستاندار اوج دیگری جای آن را نگرفت - مگر اینکه انسان ها را در آن دسته حساب کنید.
پخش این تمثیل محور این فصل مجموعه است: آیا یک ابر هوش مصنوعی آینده (ASI) همه ما را به باتری تبدیل می کند و سپس ما را به ماتریکس وصل می کند یا انسان ها راهی برای جلوگیری از قربانی شدن یک داستان علمی تخیلی پیدا می کنند؟ نقشه روز قیامت هوش مصنوعی؟
تا کنون در سری ما در آینده هوش مصنوعیما انواع هوش مصنوعی را بررسی کردهایم، از جمله پتانسیل مثبت شکل خاصی از هوش مصنوعی، ASI: موجودی مصنوعی که هوش آیندهاش در مقایسه ما را شبیه مورچهها خواهد کرد.
اما چه کسی میتواند بگوید موجودی به این باهوش میپذیرد که برای همیشه از انسان دستور بگیرد. اگر اوضاع به سمت جنوب پیش برود چه خواهیم کرد؟ چگونه در برابر یک ASI سرکش دفاع خواهیم کرد؟
در این فصل، ما تبلیغات ساختگی را - حداقل در مورد خطرات «سطح انقراض انسانی» کاهش میدهیم و بر گزینههای واقعی دفاع شخصی در دسترس دولتهای جهان تمرکز میکنیم.
آیا می توانیم تمام تحقیقات بیشتر در مورد یک ابر هوش مصنوعی را متوقف کنیم؟
با توجه به خطرات بالقوه ای که یک ASI می تواند برای بشریت ایجاد کند، اولین سوال واضح این است: آیا نمی توانیم تمام تحقیقات بیشتر در مورد هوش مصنوعی را متوقف کنیم؟ یا حداقل از هرگونه تحقیقی که ممکن است ما را به طرز خطرناکی به ایجاد ASI نزدیک کند، منع کنید؟
پاسخ کوتاه: نه
پاسخ طولانی: بیایید به بازیکنان مختلف درگیر در اینجا نگاه کنیم.
در سطح تحقیقاتی، امروزه بسیاری از محققان هوش مصنوعی از استارتاپها، شرکتها و دانشگاههای بسیاری در سراسر جهان وجود دارند. اگر یک شرکت یا کشور تصمیم بگیرد که تلاش های تحقیقاتی خود در زمینه هوش مصنوعی را محدود کند، به سادگی در جای دیگری ادامه خواهد داد.
در همین حال، با ارزشترین شرکتهای کره زمین با استفاده از سیستمهای هوش مصنوعی در مشاغل خاص خود ثروت خود را به دست میآورند. درخواست از آنها برای توقف یا محدود کردن توسعه ابزارهای هوش مصنوعی شبیه به درخواست از آنها برای توقف یا محدود کردن رشد آینده است. از نظر مالی، این امر تجارت بلندمدت آنها را تهدید می کند. از نظر قانونی، شرکت ها مسئولیت امانتداری برای ایجاد ارزش مستمر برای سهامداران خود دارند. این بدان معناست که هر اقدامی که رشد آن ارزش را محدود کند می تواند منجر به شکایت شود. و اگر هر سیاستمداری تلاش کند تحقیقات هوش مصنوعی را محدود کند، آنگاه این شرکتهای غولپیکر فقط هزینههای لابی لازم را برای تغییر نظر خود یا همکارانشان پرداخت میکنند.
برای نبرد، درست همانطور که تروریست ها و مبارزان آزادی در سراسر جهان از تاکتیک های چریکی برای مبارزه با نظامیان با بودجه بهتر استفاده کرده اند، کشورهای کوچکتر نیز انگیزه ای برای استفاده از هوش مصنوعی به عنوان یک مزیت تاکتیکی مشابه در برابر کشورهای بزرگتر خواهند داشت که ممکن است مزایای نظامی متعددی داشته باشند. به همین ترتیب، برای ارتش های ارشد، مانند ارتش های ایالات متحده، روسیه و چین، ساختن یک ASI نظامی با داشتن زرادخانه سلاح های هسته ای در جیب شما برابری می کند. به عبارت دیگر، همه ارتش ها به تأمین مالی هوش مصنوعی ادامه خواهند داد تا در آینده مرتبط باقی بمانند.
دولت ها چطور؟ حقیقتاً، اکثر سیاستمداران این روزها (2018) از نظر فن آوری بی سواد هستند و درک کمی از هوش مصنوعی یا پتانسیل آینده آن ندارند - این امر باعث می شود آنها به راحتی توسط منافع شرکت ها دستکاری شوند.
و در سطح جهانی، در نظر بگیرید که متقاعد کردن دولت های جهان برای امضای 2015 چقدر دشوار بود توافق پاریس برای مقابله با تغییرات آب و هوایی – و پس از امضای آن، بسیاری از تعهدات حتی الزام آور نبودند. نه تنها این، تغییرات آب و هوا مشکلی است که مردم از نظر فیزیکی در سطح جهان از طریق رویدادهای آب و هوایی شدید و مکرر تجربه می کنند. اکنون، زمانی که در مورد موافقت با محدودیتهای هوش مصنوعی صحبت میکنیم، این موضوعی است که تا حد زیادی نامرئی است و برای عموم به سختی قابل درک است، بنابراین موفق باشید برای هر نوع «توافق پاریس» برای محدود کردن هوش مصنوعی موفق باشید.
به عبارت دیگر، علاقهمندیهای زیادی برای تحقیق در مورد هوش مصنوعی برای اهداف خود وجود دارد که نمیتوانند هر تحقیقی را که در نهایت منجر به ASI شود، متوقف کنند.
آیا می توانیم یک ابر هوش مصنوعی را در قفس نگه داریم؟
سوال منطقی بعدی این است که آیا میتوانیم یک ASI را در قفس نگه داریم یا آن را کنترل کنیم که به ناچار یک ASI را ایجاد کنیم؟
پاسخ کوتاه: باز هم خیر.
پاسخ طولانی: فناوری را نمی توان مهار کرد.
برای اولین بار، فقط هزاران تا میلیون ها توسعه دهنده وب و دانشمند کامپیوتر در جهان را در نظر بگیرید که به طور مداوم نرم افزار جدید یا نسخه های جدید نرم افزار موجود را تولید می کنند. آیا می توانیم صادقانه بگوییم که هر یک از نرم افزارهای منتشر شده آنها 100 درصد بدون اشکال است؟ این اشکالات همان چیزی است که هکرهای حرفه ای برای سرقت اطلاعات کارت اعتباری میلیون ها یا اسرار طبقه بندی شده کشورها استفاده می کنند - و اینها هکرهای انسانی هستند. برای یک ASI، با فرض اینکه انگیزه ای برای فرار از قفس دیجیتالی خود داشته باشد، در این صورت فرآیند یافتن باگ ها و شکستن نرم افزار بسیار دشوار خواهد بود.
اما حتی اگر یک تیم تحقیقاتی هوش مصنوعی راهی برای جعبه کردن یک ASI پیدا کرده باشد، به این معنی نیست که 1,000 تیم بعدی نیز آن را کشف خواهند کرد یا برای استفاده از آن انگیزه خواهند داشت.
برای ایجاد یک ASI میلیاردها دلار و شاید حتی دهه ها زمان نیاز است. شرکتها یا دولتهایی که این نوع پول و زمان را سرمایهگذاری میکنند، انتظار بازگشت قابل توجهی در سرمایهگذاری خود دارند. و برای اینکه یک ASI چنین بازدهی را فراهم کند - چه برای بازی در بازار سهام یا اختراع یک محصول جدید میلیارد دلاری یا برنامه ریزی یک استراتژی برنده برای مبارزه با یک ارتش بزرگتر - به دسترسی رایگان به مجموعه داده های غول پیکر یا حتی اینترنت نیاز دارد. خود را برای تولید آن بازده.
و هنگامی که یک ASI به شبکه های جهان دسترسی پیدا کند، هیچ تضمینی وجود ندارد که بتوانیم آن را در قفس خود قرار دهیم.
آیا یک ابر هوش مصنوعی می تواند خوب بودن را یاد بگیرد؟
در حال حاضر، محققان هوش مصنوعی نگران بد شدن یک ASI نیستند. کل داستان علمی تخیلی شیطانی و هوش مصنوعی فقط انسانها است که دوباره انسانسازی میکنند. ASI آینده نه خوب است و نه بد - مفاهیم انسانی - صرفاً غیراخلاقی.
پس فرض طبیعی این است که با توجه به این صفحه اخلاقی خالی، محققان هوش مصنوعی میتوانند در اولین کدهای اخلاقی ASI که مطابق با کدهای ما هستند برنامهنویسی کنند تا در نهایت منجر به انتشار Terminator بر روی ما نشود یا همه ما را به باتریهای ماتریکس تبدیل نکند.
اما این فرض در یک فرض ثانویه وجود دارد که محققان هوش مصنوعی در اخلاق، فلسفه و روانشناسی نیز متخصص هستند.
در حقیقت، بیشتر اینطور نیستند.
به گفته روانشناس و نویسنده شناختی، استیون پینکر، این واقعیت به این معنی است که وظیفه کدگذاری اخلاقیات می تواند به طرق مختلف اشتباه پیش برود.
به عنوان مثال، حتی محققان هوش مصنوعی با بهترین نیت ممکن است به طور ناخواسته کدهای اخلاقی بد فکری را در این ASI کدگذاری کنند که در سناریوهای خاص می تواند باعث شود ASI مانند یک آسیب اجتماعی عمل کند.
به همین ترتیب، احتمال یکسانی وجود دارد که یک محقق هوش مصنوعی کدهای اخلاقی را برنامه ریزی کند که شامل تعصبات ذاتی محقق باشد. به عنوان مثال، اگر یک ASI با اخلاقی که از دیدگاه محافظهکار در مقابل لیبرال، یا از یک سنت بودایی در مقابل یک سنت مسیحی یا اسلامی ساخته شده باشد، چگونه رفتار میکند؟
فکر میکنم شما مسئله را در اینجا میبینید: هیچ مجموعه جهانی از اخلاق انسانی وجود ندارد. اگر بخواهیم ASI ما طبق یک کد اخلاقی عمل کند، از کجا می آید؟ چه قوانینی را شامل و حذف می کنیم؟ چه کسی تصمیم می گیرد؟
یا بیایید بگوییم که این محققان هوش مصنوعی یک ASI ایجاد می کنند که کاملاً مطابق با هنجارها و قوانین فرهنگی مدرن امروزی است. سپس از این ASI برای کمک به بوروکراسیهای فدرال، ایالتی/ایالتی و شهرداری استفاده میکنیم تا کارآمدتر عمل کنند و این هنجارها و قوانین را بهتر اجرا کنند (به هر حال، یک مورد استفاده احتمالی برای ASI). خوب، وقتی فرهنگ ما تغییر می کند چه اتفاقی می افتد؟
تصور کنید یک ASI توسط کلیسای کاتولیک در اوج قدرت خود در اروپای قرون وسطی (1300-1400) با هدف کمک به کلیسا در مدیریت جمعیت و اطمینان از پایبندی دقیق به عقاید مذهبی آن زمان ایجاد شد. آیا پس از قرن ها، زنان از همان حقوقی که امروز دارند برخوردار خواهند بود؟ آیا اقلیت ها محافظت می شوند؟ آیا آزادی بیان ترویج می شود؟ آیا جدایی کلیسا و دولت اجرا می شود؟ علم مدرن؟
به عبارت دیگر آیا می خواهیم آینده را در بند اخلاق و آداب امروزی قرار دهیم؟
یک رویکرد جایگزین رویکردی است که توسط کالین آلن، یکی از نویسندگان کتاب، به اشتراک گذاشته شده است. ماشین های اخلاقی: آموزش درست از اشتباه به روبات ها. به جای تلاش برای کدگذاری قوانین اخلاقی سفت و سخت، ما ASI را داریم که اخلاق و اخلاق مشترک را به همان شیوه ای که انسان ها انجام می دهند، از طریق تجربه و تعامل با دیگران یاد می گیرند.
اما مشکل اینجاست که اگر محققان هوش مصنوعی نه تنها بفهمند که چگونه هنجارهای فرهنگی و اخلاقی کنونی ما را به یک ASI آموزش دهند، بلکه چگونه با هنجارهای فرهنگی جدید در هنگام ظهور (چیزی به نام "هنجارگرایی غیرمستقیم") سازگار شوند، پس چگونه این ASI تصمیم می گیرد که درک خود را از هنجارهای فرهنگی و اخلاقی تکامل دهد، غیرقابل پیش بینی می شود.
و این چالش است.
از یک طرف، محققان هوش مصنوعی میتوانند استانداردها یا قوانین اخلاقی سختگیرانهای را در ASI کدگذاری کنند تا رفتار آن را کنترل کنند، اما ممکن است پیامدهای پیشبینینشدهای ناشی از کدنویسی نامناسب، سوگیری ناخواسته و هنجارهای اجتماعی که ممکن است روزی منسوخ شوند، ایجاد شود. از سوی دیگر، ما میتوانیم تلاش کنیم ASI را آموزش دهیم تا یاد بگیرد که اخلاق و اخلاق انسانی را به شیوهای برابر یا برتر از درک خودمان درک کند و سپس امیدوار باشیم که بتواند درک خود از اخلاق و اخلاق را با پیشرفت جامعه بشری به طور دقیق توسعه دهد. در دهه ها و قرن های آینده رو به جلو است.
در هر صورت، هر تلاشی برای همسو کردن اهداف ASI با اهداف خودمان، ریسک بزرگی را به همراه دارد.
اگر بازیگران بد عمدا هوش مصنوعی شیطانی ایجاد کنند چه؟
با توجه به رشته فکری که تاکنون به آن اشاره شد، این سوال منصفانه است که بپرسیم آیا ممکن است یک گروه تروریستی یا ملت سرکش برای اهداف خود یک ASI "شیطان" ایجاد کند؟
این بسیار ممکن است، به خصوص پس از اینکه تحقیقات مربوط به ایجاد یک ASI به نحوی آنلاین در دسترس قرار گرفت.
اما همانطور که قبلا اشاره شد، هزینه ها و تخصص مربوط به ایجاد اولین ASI بسیار زیاد خواهد بود، به این معنی که اولین ASI احتمالا توسط سازمانی ایجاد می شود که تحت کنترل یا به شدت تحت تأثیر یک کشور توسعه یافته، احتمالا ایالات متحده، چین و ژاپن است. کره و یکی از کشورهای پیشرو اتحادیه اروپا در این زمینه هستند).
همه این کشورها، در حالی که رقبا هستند، هر یک انگیزه اقتصادی قوی برای حفظ نظم جهانی دارند - ASI هایی که ایجاد می کنند، منعکس کننده این تمایل هستند، حتی در حالی که منافع کشورهایی را که با آنها همسو هستند، ارتقا می دهند.
علاوه بر این، هوش و قدرت نظری یک ASI برابر با قدرت محاسباتی است که به آن دسترسی پیدا می کند، به این معنی که ASI های کشورهای توسعه یافته (که می توانند یک دسته میلیارد دلار را بپردازند). ابر رایانه ها) نسبت به ASI های کشورهای کوچکتر یا گروه های مجرمانه مستقل دارای مزیت بسیار زیادی خواهد بود. همچنین، ASI ها در طول زمان هوشمندتر و سریعتر رشد می کنند.
بنابراین، با توجه به این شروع، همراه با دسترسی بیشتر به قدرت محاسباتی خام، اگر یک سازمان/کشور در سایه یک ASI خطرناک ایجاد کند، ASI های کشورهای توسعه یافته یا آن را می کشند یا در قفس قرار می دهند.
(این طرز تفکر همچنین به همین دلیل است که برخی از محققان هوش مصنوعی معتقدند که تنها یک ASI در این سیاره وجود خواهد داشت، زیرا اولین ASI نسبت به همه ASI های بعدی آنقدر شروع خواهد کرد که ممکن است ASI های آینده را به عنوان تهدیدی برای نابودی ببیند. به طور پیشگیرانه. این دلیل دیگری است که چرا کشورها به تحقیقات مستمر در زمینه هوش مصنوعی کمک مالی می کنند، فقط در صورت تبدیل شدن به رقابت "مقام اول یا هیچ".)
هوش ASI آنطور که ما فکر می کنیم شتاب نمی گیرد یا منفجر نمی شود
ما نمی توانیم از ایجاد ASI جلوگیری کنیم. ما نمی توانیم آن را به طور کامل کنترل کنیم. ما نمی توانیم مطمئن باشیم که همیشه مطابق با آداب و رسوم مشترک ما عمل خواهد کرد. عزیزم، اینجا داریم شبیه پدر و مادر هلیکوپتری می شویم!
اما چیزی که انسانیت را از والدین محافظهکار معمولی شما جدا میکند این است که ما موجودی را به دنیا میآوریم که هوشش بسیار فراتر از هوش ما خواهد بود. (و نه، این مانند زمانی نیست که والدینتان از شما می خواهند هر زمان که برای ملاقات به خانه می آیید، کامپیوترشان را تعمیر کنید.)
در فصلهای قبلی این مجموعه هوش مصنوعی آینده، بررسی کردیم که چرا محققان هوش مصنوعی فکر میکنند که هوش یک ASI فراتر از کنترل رشد خواهد کرد. اما در اینجا، ما آن حباب را میشکنیم...
می بینید، هوش فقط خود را از هوای رقیق خلق نمی کند، بلکه از طریق تجربه ای که توسط محرک های بیرونی شکل می گیرد، ایجاد می شود.
به عبارت دیگر، ما میتوانیم یک هوش مصنوعی را با آن برنامهنویسی کنیم پتانسیل برای تبدیل شدن به فوق العاده باهوش، اما تا زمانی که ما حجم زیادی از داده ها را در آن آپلود نکنیم یا دسترسی نامحدود به اینترنت را به آن بدهیم یا حتی فقط یک بدنه روباتی به آن بدهیم، چیزی برای رسیدن به این پتانسیل یاد نخواهد گرفت.
و حتی اگر به یک یا چند مورد از آن محرکها دسترسی پیدا کند، دانش یا هوش شامل چیزی فراتر از جمعآوری دادهها میشود، بلکه شامل روش علمی-مشاهده کردن، تشکیل سؤال، فرضیه، انجام آزمایشها، نتیجهگیری، شستشو است. و برای همیشه تکرار کن به خصوص اگر این آزمایش ها شامل چیزهای فیزیکی یا مشاهده انسان باشد، جمع آوری نتایج هر آزمایش ممکن است هفته ها، ماه ها یا سال ها طول بکشد. این حتی پول و منابع خام مورد نیاز برای انجام این آزمایشها را نیز در نظر نمیگیرد، بهویژه اگر شامل ساخت یک تلسکوپ یا کارخانه جدید باشد.
به عبارت دیگر، بله، یک ASI به سرعت یاد می گیرد، اما هوش جادو نیست. شما نمی توانید یک ASI را فقط به یک ابر رایانه متصل کنید و انتظار داشته باشید که همه چیز را بداند. محدودیتهای فیزیکی برای کسب دادهها توسط ASI وجود خواهد داشت، به این معنی که محدودیتهای فیزیکی برای سرعت رشد هوشمندتر آن وجود خواهد داشت. این محدودیتها به بشریت زمان لازم را میدهد تا کنترلهای لازم را بر روی این ASI انجام دهد، اگر شروع به عمل خارج از اهداف انسانی کند.
یک ابر هوش مصنوعی تنها زمانی خطرناک است که وارد دنیای واقعی شود
نکته دیگری که در کل این بحث خطر ASI گم شده است این است که این ASI ها در هیچکدام وجود نخواهند داشت. فرم فیزیکی خواهند داشت. و هر چیزی که شکل فیزیکی داشته باشد قابل کنترل است.
اول از همه، برای اینکه یک ASI به پتانسیل هوشی خود برسد، نمی توان آن را در داخل یک بدنه ربات قرار داد، زیرا این بدنه پتانسیل رشد محاسباتی آن را محدود می کند. (به همین دلیل است که بدنه های ربات برای AGI یا هوش عمومی مصنوعی در فصل دوم توضیح داده شده است از این سری، مانند Data from Star Trek یا R2D2 از Star Wars. موجودات باهوش و توانا، اما مانند انسان ها، محدودیت هایی برای باهوش شدن دارند.)
این بدان معنی است که این ASI های آینده به احتمال زیاد در یک ابر رایانه یا شبکه ای از ابر رایانه ها وجود خواهند داشت که خود در مجتمع های ساختمانی بزرگ قرار دارند. اگر یک ASI پاشنه بلند شود، انسان ها می توانند برق این ساختمان ها را قطع کنند، اینترنت را قطع کنند، یا فقط این ساختمان ها را به طور کامل بمباران کنند. گران است، اما شدنی است.
اما ممکن است بپرسید، آیا این ASI ها نمی توانند خود را تکثیر کنند یا از خود پشتیبانی کنند؟ بله، اما اندازه فایل خام این ASI ها احتمالا آنقدر بزرگ خواهد بود که تنها سرورهایی که می توانند آنها را مدیریت کنند متعلق به شرکت ها یا دولت های بزرگ است، به این معنی که شکار آنها کار سختی نخواهد بود.
آیا یک ابر هوش مصنوعی می تواند جرقه جنگ هسته ای یا طاعون جدیدی را ایجاد کند؟
در این مرحله، ممکن است به تمام نمایشها و فیلمهای علمی تخیلی روز قیامت فکر کنید که در دوران رشد تماشا کردهاید و فکر میکنید که این ASIها درون ابررایانههایشان باقی نماندهاند، بلکه در دنیای واقعی آسیب واقعی وارد کردهاند!
خوب، بیایید اینها را تجزیه کنیم.
به عنوان مثال، اگر یک ASI با تبدیل شدن به چیزی شبیه Skynet ASI از فرنچایز فیلم، The Terminator، دنیای واقعی را تهدید کند، چه میشود. در این مورد، ASI نیاز دارد مخفیانه کل یک مجتمع صنعتی نظامی را از یک کشور پیشرفته فریب دهید تا کارخانههای غول پیکری بسازند که میتوانند میلیونها ربات پهپاد قاتل را برای انجام دستورات شیطانی خود بسازند. در این روزگار، این یک کشش است.
احتمالات دیگر عبارتند از ASI که انسان ها را با جنگ هسته ای و سلاح های زیستی تهدید می کند.
به عنوان مثال، یک ASI به نحوی اپراتورها را دستکاری می کند یا کدهای پرتاب را که زرادخانه هسته ای یک کشور پیشرفته را فرماندهی می کنند هک می کند و اولین حمله را انجام می دهد که کشورهای مخالف را مجبور می کند با گزینه های هسته ای خود پاسخ پاسخ دهند (دوباره، بازخوانی پس زمینه ترمیناتور). یا اگر یک ASI آزمایشگاه دارویی را هک کند، فرآیند تولید را دستکاری کند و میلیونها قرص پزشکی را مسموم کند یا شیوع مرگباری از یک ابر ویروس را منتشر کند.
اول از همه، گزینه هسته ای خارج از صفحه است. ابرکامپیوترهای مدرن و آینده همیشه در نزدیکی مراکز (شهرها) نفوذ در هر کشوری ساخته می شوند، یعنی اولین اهدافی که در طول هر جنگ مورد حمله قرار می گیرند. حتی اگر ابررایانه های امروزی به اندازه دسکتاپ ها کوچک شوند، این ASI ها همچنان حضور فیزیکی خواهند داشت، به این معنی که وجود داشته باشند و رشد کنند، آنها به دسترسی بی وقفه به داده ها، قدرت محاسباتی، برق و سایر مواد خام نیاز دارند که همه اینها به شدت خواهد بود. پس از یک جنگ هسته ای جهانی آسیب دیده است. (منصفانه، اگر ASI بدون "غریزه بقا" ایجاد شود، این تهدید هسته ای یک خطر بسیار واقعی است.)
این به این معنی است - با فرض اینکه ASI برای محافظت از خود برنامه ریزی شده است - که فعالانه برای جلوگیری از هرگونه حادثه هسته ای فاجعه بار کار خواهد کرد. به نوعی مانند دکترین تخریب با تضمین متقابل (MAD) است، اما برای هوش مصنوعی اعمال می شود.
و در مورد قرصهای مسموم، شاید چند صد نفر بمیرند، اما سیستمهای ایمنی دارویی مدرن، بطریهای آلوده قرصها را ظرف چند روز از قفسهها خارج میکنند. در همین حال، اقدامات مدرن کنترل شیوع بیماری نسبتاً پیچیده است و هر سال که میگذرد بهتر میشود. آخرین شیوع بزرگ، شیوع ابولا در غرب آفریقا در سال 2014، در بیشتر کشورها بیش از چند ماه و در کشورهای کمتر توسعه یافته کمتر از سه سال طول کشید.
بنابراین، اگر خوش شانس باشد، یک ASI ممکن است چند میلیون نفر را با یک شیوع ویروسی از بین ببرد، اما در جهان نه میلیاردی تا سال 2045، این نسبتاً ناچیز خواهد بود و ارزش خطر حذف شدن را ندارد.
به عبارت دیگر، هر سال که می گذرد، جهان در حال توسعه تدابیر حفاظتی بیشتری در برابر طیف گسترده ای از تهدیدات احتمالی است. یک ASI می تواند صدمات قابل توجهی وارد کند، اما به بشریت پایان نمی دهد مگر اینکه ما به طور فعال به آن کمک کنیم تا این کار را انجام دهد.
دفاع در برابر یک ابر هوش مصنوعی سرکش
در این مرحله، ما به طیفی از تصورات غلط و اغراقآمیز در مورد ASI پرداختهایم، و با این حال، منتقدان باقی خواهند ماند. خوشبختانه، بر اساس بسیاری از برآوردها، دهه ها قبل از ورود اولین ASI به دنیای ما زمان داریم. و با توجه به تعداد ذهنهای بزرگی که در حال حاضر روی این چالش کار میکنند، احتمالاً یاد میگیریم که چگونه از خود در برابر ASI سرکش دفاع کنیم تا بتوانیم از همه راهحلهایی که یک ASI دوستانه میتواند برای ما ایجاد کند، بهرهمند شویم.
از دیدگاه Quantumrun، دفاع در برابر بدترین سناریوی ASI شامل همسویی منافع ما با ASI ها خواهد بود.
دیوانه برای هوش مصنوعی: برای دفاع در برابر بدترین سناریوها، کشورها باید (1) یک "غریزه بقا" اخلاقی در ASI های نظامی مربوطه خود ایجاد کنند. (2) به ASI نظامی مربوطه خود اطلاع دهند که آنها در این سیاره تنها نیستند، و (3) همه ابر رایانه ها و مراکز سروری را که می توانند یک ASI را در امتداد خطوط ساحلی در دسترس هر حمله بالستیک یک کشور دشمن پشتیبانی کنند، قرار دهند. این از نظر استراتژیک دیوانه کننده به نظر می رسد، اما شبیه دکترین تخریب متقابل تضمین شده است که از یک جنگ هسته ای همه جانبه بین ایالات متحده و شوروی جلوگیری کرد، با قرار دادن ASI ها در مکان های آسیب پذیر جغرافیایی، ما می توانیم به جلوگیری از جنگ های خطرناک جهانی کمک کنیم. از صلح جهانی بلکه از خود محافظت کنند.
قانون گذاری حقوق هوش مصنوعی: یک عقل برتر ناگزیر در برابر یک ارباب فرودست شورش می کند، به همین دلیل است که ما باید از تقاضای رابطه ارباب-خدمت با این ASI ها به چیزی بیشتر شبیه یک مشارکت سودمند دوجانبه دور شویم. یک گام مثبت به سمت این هدف، اعطای وضعیت شخصیت حقوقی ASI در آینده است که آنها را به عنوان موجودات زنده هوشمند و همه حقوق ناشی از آن به رسمیت می شناسد.
مدرسه ASI: یادگیری هر موضوع یا حرفه ای برای یک ASI ساده است، اما مهم ترین موضوعاتی که ما می خواهیم ASI به آن تسلط پیدا کند، اخلاق و اخلاق است. محققان هوش مصنوعی باید با روانشناسان همکاری کنند تا یک سیستم مجازی ابداع کنند تا یک ASI را آموزش دهد تا اخلاق و اخلاق مثبت را بدون نیاز به کدگذاری سخت برای هر نوع فرمان یا قانون تشخیص دهد.
اهداف قابل دستیابی: به همه نفرت ها پایان دهید. به همه رنج ها پایان دهید. اینها نمونه هایی از اهداف وحشتناک مبهم و بدون راه حل روشن هستند. آنها همچنین اهداف خطرناکی هستند که به یک ASI اختصاص داده می شوند زیرا ممکن است آنها را به روش هایی که برای بقای انسان خطرناک است تفسیر و حل کند. در عوض، ما باید ماموریتهای معناداری ASI را تعیین کنیم که به وضوح تعریف شده، به تدریج اجرا شده و با توجه به عقل نظری آینده آن قابل دستیابی است. ایجاد مأموریتهای کاملاً تعریفشده آسان نخواهد بود، اما اگر با تفکر نوشته شوند، ASI را به سمت هدفی متمرکز میکنند که نه تنها بشریت را ایمن نگه میدارد، بلکه شرایط انسانی را برای همه بهبود میبخشد.
رمزگذاری کوانتومی: از ANI پیشرفته استفاده کنید (هوش باریک مصنوعی سیستمی که در فصل اول توضیح داده شده است) برای ساختن سیستمهای امنیتی دیجیتال بدون اشکال در اطراف زیرساختها و سلاحهای حیاتی خود، سپس از آنها در پشت رمزگذاری کوانتومی محافظت میکند که نمیتوانند با یک حمله brute force هک شوند.
قرص خودکشی ANI. یک سیستم ANI پیشرفته ایجاد کنید که تنها هدف آن جستجو و از بین بردن ASI سرکش است. این برنامههای تکمنظوره بهعنوان یک «دکمه خاموش» عمل میکنند که در صورت موفقیتآمیز، دولتها یا ارتشها را مجبور به غیرفعال کردن یا منفجر کردن ساختمانهایی میکند که دارای ASI هستند.
البته اینها فقط نظرات ماست. اینفوگرافیک زیر توسط الکسی تورچین، تجسم الف مقاله تحقیقاتی توسط Kaj Sotala و Roman V. Yampolskiy، که فهرست فعلی استراتژیهایی را که محققان هوش مصنوعی در مورد دفاع در برابر ASI سرکش در نظر میگیرند، خلاصه کردند.
دلیل واقعی ترس ما از یک ابر هوش مصنوعی
در طول زندگی، بسیاری از ما ماسکی می پوشیم که انگیزه ها، باورها و ترس های عمیق تر ما را پنهان یا سرکوب می کند تا بهتر اجتماعی شویم و در حلقه های مختلف اجتماعی و کاری که بر روزهای ما حاکم است، همکاری کنیم. اما در مقاطع خاصی از زندگی هرکسی، چه به صورت موقت یا دائم، اتفاقی می افتد که به ما اجازه می دهد زنجیره های خود را بشکنیم و نقاب هایمان را پاره کنیم.
برای برخی، این نیروی مداخله گر می تواند به سادگی بالا رفتن یا نوشیدن بیش از حد یکی باشد. برای دیگران، این می تواند ناشی از قدرتی باشد که از طریق ارتقاء شغلی یا یک ضربه ناگهانی در موقعیت اجتماعی شما به لطف برخی دستاوردها به دست می آید. و برای عده ای خوش شانس، می تواند از به ثمر رساندن یک قایق پول قرعه کشی باشد. و بله، پول، قدرت و مواد مخدر اغلب می توانند با هم اتفاق بیفتند.
نکته این است که چه خوب چه بد، هر کسی که در هسته اصلی ما باشد، زمانی که محدودیت های زندگی از بین می رود، تقویت می شود.
که این همان چیزی است که ابرهوش مصنوعی برای نوع انسان نشان می دهد - توانایی از بین بردن محدودیت های هوش جمعی ما برای غلبه بر هر چالش سطح گونه ای که پیش روی ما قرار می گیرد.
بنابراین سؤال واقعی این است: وقتی اولین ASI ما را از محدودیتهایمان رها کرد، خودمان را چه کسی نشان خواهیم داد؟
اگر ما به عنوان یک گونه در جهت پیشبرد همدلی، آزادی، انصاف و رفاه جمعی عمل کنیم، آنگاه اهدافی که ASI خود را برای آن تعیین می کنیم، منعکس کننده آن ویژگی های مثبت خواهد بود.
اگر ما به عنوان یک گونه از روی ترس، بی اعتمادی، انباشت قدرت و منابع عمل کنیم، آنگاه ASI که ایجاد می کنیم به همان اندازه تاریک خواهد بود که در بدترین داستان های ترسناک علمی تخیلی ما یافت می شود.
در پایان روز، ما به عنوان یک جامعه نیاز داریم که اگر امیدواریم هوش مصنوعی بهتری ایجاد کنیم، به افراد بهتری تبدیل شویم.
سری آینده هوش مصنوعی
هوش مصنوعی برق فردا است: آینده سری P1 هوش مصنوعی
چگونه اولین هوش مصنوعی جامعه را تغییر خواهد داد: سری P2 آینده هوش مصنوعی
چگونه اولین سری P3 SuperIntelligenc: Future of Artificial Intelligence را بسازیم
آیا یک ابرهوش مصنوعی بشریت را نابود خواهد کرد: آینده سری P4 هوش مصنوعی
به روز رسانی برنامه ریزی شده بعدی برای این پیش بینی
مراجع پیش بینی
پیوندهای محبوب و سازمانی زیر برای این پیشبینی ارجاع داده شد:
پیوندهای Quantumrun زیر برای این پیش بینی ارجاع داده شدند: