چگونه انسان ها در برابر یک ابر هوش مصنوعی دفاع خواهند کرد: آینده هوش مصنوعی P5

اعتبار تصویر: کوانتوم ران

چگونه انسان ها در برابر یک ابر هوش مصنوعی دفاع خواهند کرد: آینده هوش مصنوعی P5

    سال 65,000 ق.م است و به عنوان یک Thylacoleo، شما و هم نوعانتان شکارچیان بزرگ استرالیای باستان بودید. شما آزادانه در زمین پرسه می زدید و با شکارچیان و طعمه هایی که در کنار شما زمین را اشغال کرده بودند در تعادل زندگی می کردید. فصول تغییراتی را به ارمغان آوردند، اما موقعیت شما در قلمرو حیوانات تا زمانی که شما و اجدادتان به یاد داشته باشید، بدون چالش باقی ماند. سپس یک روز، تازه واردان ظاهر شدند.

    شایعات حاکی از آن است که آنها از دیوار غول پیکر آبی وارد شده اند، اما زندگی این موجودات در خشکی راحت تر به نظر می رسید. باید خودت این موجودات را می دیدی.

    چند روز طول کشید، اما بالاخره به ساحل رسیدی. آتش در آسمان در حال غروب بود، زمان مناسبی برای جاسوسی از این موجودات، شاید حتی سعی کنید یکی از آنها را بخورید تا ببینید مزه آنها چگونه است.

    شما یکی را تشخیص می دهید.

    روی دو پا راه می رفت و خز نداشت. ضعیف به نظر می رسید. بی تاثیر به سختی ارزش ترسی که در میان پادشاهی ایجاد می کرد را ندارد.

    وقتی شب نور را از بین می برد، با دقت شروع به رویکرد خود می کنید. نزدیک تر میشی بعد یخ میزنی صداهای بلند بلند می شود و سپس چهار نفر دیگر از جنگل پشت آن ظاهر می شوند. چند نفر هستند؟

    موجودی بقیه را به سمت خط درخت دنبال می کند و شما هم دنبال می کنید. و هر چه بیشتر این کار را انجام دهید، صداهای عجیب تری می شنوید تا زمانی که تعداد بیشتری از این موجودات را مشاهده کنید. در حالی که آنها از جنگل خارج می شوند و به سمت پاکی کنار ساحل می آیند، از فاصله دور دنبال می کنید. تعداد زیادی از آنها وجود دارد. اما مهمتر از آن، همه آنها آرام دور آتش نشسته اند.

    شما قبلاً این آتش سوزی ها را دیده اید. در فصل گرما، آتش در آسمان گاهی اوقات از زمین بازدید می کرد و کل جنگل ها را می سوزاند. از طرف دیگر این موجودات به نوعی آن را کنترل می کردند. چه نوع موجوداتی می توانند چنین قدرتی داشته باشند؟

    به دوردست ها نگاه می کنی تعداد بیشتری از دیوار غول پیکر آب در حال آمدن است.

    شما یک قدم به عقب برگردید.

    این موجودات مانند سایر موجودات در پادشاهی نیستند. آنها چیز کاملا جدیدی هستند.

    شما تصمیم می گیرید ترک کنید و به خویشاوندان خود هشدار دهید. اگر تعداد آنها خیلی زیاد شود، چه کسی می داند چه اتفاقی ممکن است بیفتد.

    ***

    اعتقاد بر این است که Thylacoleo در مدت زمان نسبتاً کوتاهی پس از ورود انسان ها منقرض شده است، همراه با اکثر حیوانات بزرگ دیگر در قاره استرالیا. هیچ شکارچی پستاندار اوج دیگری جای آن را نگرفت - مگر اینکه انسان ها را در آن دسته حساب کنید.

    پخش این تمثیل محور این فصل مجموعه است: آیا یک ابر هوش مصنوعی آینده (ASI) همه ما را به باتری تبدیل می کند و سپس ما را به ماتریکس وصل می کند یا انسان ها راهی برای جلوگیری از قربانی شدن یک داستان علمی تخیلی پیدا می کنند؟ نقشه روز قیامت هوش مصنوعی؟

    تا کنون در سری ما در آینده هوش مصنوعیما انواع هوش مصنوعی را بررسی کرده‌ایم، از جمله پتانسیل مثبت شکل خاصی از هوش مصنوعی، ASI: موجودی مصنوعی که هوش آینده‌اش در مقایسه ما را شبیه مورچه‌ها خواهد کرد.

    اما چه کسی می‌تواند بگوید موجودی به این باهوش می‌پذیرد که برای همیشه از انسان دستور بگیرد. اگر اوضاع به سمت جنوب پیش برود چه خواهیم کرد؟ چگونه در برابر یک ASI سرکش دفاع خواهیم کرد؟

    در این فصل، ما تبلیغات ساختگی را - حداقل در مورد خطرات «سطح انقراض انسانی» کاهش می‌دهیم و بر گزینه‌های واقعی دفاع شخصی در دسترس دولت‌های جهان تمرکز می‌کنیم.

    آیا می توانیم تمام تحقیقات بیشتر در مورد یک ابر هوش مصنوعی را متوقف کنیم؟

    با توجه به خطرات بالقوه ای که یک ASI می تواند برای بشریت ایجاد کند، اولین سوال واضح این است: آیا نمی توانیم تمام تحقیقات بیشتر در مورد هوش مصنوعی را متوقف کنیم؟ یا حداقل از هرگونه تحقیقی که ممکن است ما را به طرز خطرناکی به ایجاد ASI نزدیک کند، منع کنید؟

    پاسخ کوتاه: نه

    پاسخ طولانی: بیایید به بازیکنان مختلف درگیر در اینجا نگاه کنیم.

    در سطح تحقیقاتی، امروزه بسیاری از محققان هوش مصنوعی از استارتاپ‌ها، شرکت‌ها و دانشگاه‌های بسیاری در سراسر جهان وجود دارند. اگر یک شرکت یا کشور تصمیم بگیرد که تلاش های تحقیقاتی خود در زمینه هوش مصنوعی را محدود کند، به سادگی در جای دیگری ادامه خواهد داد.

    در همین حال، با ارزش‌ترین شرکت‌های کره زمین با استفاده از سیستم‌های هوش مصنوعی در مشاغل خاص خود ثروت خود را به دست می‌آورند. درخواست از آنها برای توقف یا محدود کردن توسعه ابزارهای هوش مصنوعی شبیه به درخواست از آنها برای توقف یا محدود کردن رشد آینده است. از نظر مالی، این امر تجارت بلندمدت آنها را تهدید می کند. از نظر قانونی، شرکت ها مسئولیت امانتداری برای ایجاد ارزش مستمر برای سهامداران خود دارند. این بدان معناست که هر اقدامی که رشد آن ارزش را محدود کند می تواند منجر به شکایت شود. و اگر هر سیاستمداری تلاش کند تحقیقات هوش مصنوعی را محدود کند، آنگاه این شرکت‌های غول‌پیکر فقط هزینه‌های لابی لازم را برای تغییر نظر خود یا همکارانشان پرداخت می‌کنند.

    برای نبرد، درست همانطور که تروریست ها و مبارزان آزادی در سراسر جهان از تاکتیک های چریکی برای مبارزه با نظامیان با بودجه بهتر استفاده کرده اند، کشورهای کوچکتر نیز انگیزه ای برای استفاده از هوش مصنوعی به عنوان یک مزیت تاکتیکی مشابه در برابر کشورهای بزرگتر خواهند داشت که ممکن است مزایای نظامی متعددی داشته باشند. به همین ترتیب، برای ارتش های ارشد، مانند ارتش های ایالات متحده، روسیه و چین، ساختن یک ASI نظامی با داشتن زرادخانه سلاح های هسته ای در جیب شما برابری می کند. به عبارت دیگر، همه ارتش ها به تأمین مالی هوش مصنوعی ادامه خواهند داد تا در آینده مرتبط باقی بمانند.

    دولت ها چطور؟ حقیقتاً، اکثر سیاستمداران این روزها (2018) از نظر فن آوری بی سواد هستند و درک کمی از هوش مصنوعی یا پتانسیل آینده آن ندارند - این امر باعث می شود آنها به راحتی توسط منافع شرکت ها دستکاری شوند.

    و در سطح جهانی، در نظر بگیرید که متقاعد کردن دولت های جهان برای امضای 2015 چقدر دشوار بود توافق پاریس برای مقابله با تغییرات آب و هوایی – و پس از امضای آن، بسیاری از تعهدات حتی الزام آور نبودند. نه تنها این، تغییرات آب و هوا مشکلی است که مردم از نظر فیزیکی در سطح جهان از طریق رویدادهای آب و هوایی شدید و مکرر تجربه می کنند. اکنون، زمانی که در مورد موافقت با محدودیت‌های هوش مصنوعی صحبت می‌کنیم، این موضوعی است که تا حد زیادی نامرئی است و برای عموم به سختی قابل درک است، بنابراین موفق باشید برای هر نوع «توافق پاریس» برای محدود کردن هوش مصنوعی موفق باشید.

    به عبارت دیگر، علاقه‌مندی‌های زیادی برای تحقیق در مورد هوش مصنوعی برای اهداف خود وجود دارد که نمی‌توانند هر تحقیقی را که در نهایت منجر به ASI شود، متوقف کنند. 

    آیا می توانیم یک ابر هوش مصنوعی را در قفس نگه داریم؟

    سوال منطقی بعدی این است که آیا می‌توانیم یک ASI را در قفس نگه داریم یا آن را کنترل کنیم که به ناچار یک ASI را ایجاد کنیم؟ 

    پاسخ کوتاه: باز هم خیر.

    پاسخ طولانی: فناوری را نمی توان مهار کرد.

    برای اولین بار، فقط هزاران تا میلیون ها توسعه دهنده وب و دانشمند کامپیوتر در جهان را در نظر بگیرید که به طور مداوم نرم افزار جدید یا نسخه های جدید نرم افزار موجود را تولید می کنند. آیا می توانیم صادقانه بگوییم که هر یک از نرم افزارهای منتشر شده آنها 100 درصد بدون اشکال است؟ این اشکالات همان چیزی است که هکرهای حرفه ای برای سرقت اطلاعات کارت اعتباری میلیون ها یا اسرار طبقه بندی شده کشورها استفاده می کنند - و اینها هکرهای انسانی هستند. برای یک ASI، با فرض اینکه انگیزه ای برای فرار از قفس دیجیتالی خود داشته باشد، در این صورت فرآیند یافتن باگ ها و شکستن نرم افزار بسیار دشوار خواهد بود.

    اما حتی اگر یک تیم تحقیقاتی هوش مصنوعی راهی برای جعبه کردن یک ASI پیدا کرده باشد، به این معنی نیست که 1,000 تیم بعدی نیز آن را کشف خواهند کرد یا برای استفاده از آن انگیزه خواهند داشت.

    برای ایجاد یک ASI میلیاردها دلار و شاید حتی دهه ها زمان نیاز است. شرکت‌ها یا دولت‌هایی که این نوع پول و زمان را سرمایه‌گذاری می‌کنند، انتظار بازگشت قابل توجهی در سرمایه‌گذاری خود دارند. و برای اینکه یک ASI چنین بازدهی را فراهم کند - چه برای بازی در بازار سهام یا اختراع یک محصول جدید میلیارد دلاری یا برنامه ریزی یک استراتژی برنده برای مبارزه با یک ارتش بزرگتر - به دسترسی رایگان به مجموعه داده های غول پیکر یا حتی اینترنت نیاز دارد. خود را برای تولید آن بازده.

    و هنگامی که یک ASI به شبکه های جهان دسترسی پیدا کند، هیچ تضمینی وجود ندارد که بتوانیم آن را در قفس خود قرار دهیم.

    آیا یک ابر هوش مصنوعی می تواند خوب بودن را یاد بگیرد؟

    در حال حاضر، محققان هوش مصنوعی نگران بد شدن یک ASI نیستند. کل داستان علمی تخیلی شیطانی و هوش مصنوعی فقط انسان‌ها است که دوباره انسان‌سازی می‌کنند. ASI آینده نه خوب است و نه بد - مفاهیم انسانی - صرفاً غیراخلاقی.

    پس فرض طبیعی این است که با توجه به این صفحه اخلاقی خالی، محققان هوش مصنوعی می‌توانند در اولین کدهای اخلاقی ASI که مطابق با کدهای ما هستند برنامه‌نویسی کنند تا در نهایت منجر به انتشار Terminator بر روی ما نشود یا همه ما را به باتری‌های ماتریکس تبدیل نکند.

    اما این فرض در یک فرض ثانویه وجود دارد که محققان هوش مصنوعی در اخلاق، فلسفه و روانشناسی نیز متخصص هستند.

    در حقیقت، بیشتر اینطور نیستند.

    به گفته روانشناس و نویسنده شناختی، استیون پینکر، این واقعیت به این معنی است که وظیفه کدگذاری اخلاقیات می تواند به طرق مختلف اشتباه پیش برود.

    به عنوان مثال، حتی محققان هوش مصنوعی با بهترین نیت ممکن است به طور ناخواسته کدهای اخلاقی بد فکری را در این ASI کدگذاری کنند که در سناریوهای خاص می تواند باعث شود ASI مانند یک آسیب اجتماعی عمل کند.

    به همین ترتیب، احتمال یکسانی وجود دارد که یک محقق هوش مصنوعی کدهای اخلاقی را برنامه ریزی کند که شامل تعصبات ذاتی محقق باشد. به عنوان مثال، اگر یک ASI با اخلاقی که از دیدگاه محافظه‌کار در مقابل لیبرال، یا از یک سنت بودایی در مقابل یک سنت مسیحی یا اسلامی ساخته شده باشد، چگونه رفتار می‌کند؟

    فکر می‌کنم شما مسئله را در اینجا می‌بینید: هیچ مجموعه جهانی از اخلاق انسانی وجود ندارد. اگر بخواهیم ASI ما طبق یک کد اخلاقی عمل کند، از کجا می آید؟ چه قوانینی را شامل و حذف می کنیم؟ چه کسی تصمیم می گیرد؟

    یا بیایید بگوییم که این محققان هوش مصنوعی یک ASI ایجاد می کنند که کاملاً مطابق با هنجارها و قوانین فرهنگی مدرن امروزی است. سپس از این ASI برای کمک به بوروکراسی‌های فدرال، ایالتی/ایالتی و شهرداری استفاده می‌کنیم تا کارآمدتر عمل کنند و این هنجارها و قوانین را بهتر اجرا کنند (به هر حال، یک مورد استفاده احتمالی برای ASI). خوب، وقتی فرهنگ ما تغییر می کند چه اتفاقی می افتد؟

    تصور کنید یک ASI توسط کلیسای کاتولیک در اوج قدرت خود در اروپای قرون وسطی (1300-1400) با هدف کمک به کلیسا در مدیریت جمعیت و اطمینان از پایبندی دقیق به عقاید مذهبی آن زمان ایجاد شد. آیا پس از قرن ها، زنان از همان حقوقی که امروز دارند برخوردار خواهند بود؟ آیا اقلیت ها محافظت می شوند؟ آیا آزادی بیان ترویج می شود؟ آیا جدایی کلیسا و دولت اجرا می شود؟ علم مدرن؟

    به عبارت دیگر آیا می خواهیم آینده را در بند اخلاق و آداب امروزی قرار دهیم؟

    یک رویکرد جایگزین رویکردی است که توسط کالین آلن، یکی از نویسندگان کتاب، به اشتراک گذاشته شده است. ماشین های اخلاقی: آموزش درست از اشتباه به روبات ها. به جای تلاش برای کدگذاری قوانین اخلاقی سفت و سخت، ما ASI را داریم که اخلاق و اخلاق مشترک را به همان شیوه ای که انسان ها انجام می دهند، از طریق تجربه و تعامل با دیگران یاد می گیرند.

    اما مشکل اینجاست که اگر محققان هوش مصنوعی نه تنها بفهمند که چگونه هنجارهای فرهنگی و اخلاقی کنونی ما را به یک ASI آموزش دهند، بلکه چگونه با هنجارهای فرهنگی جدید در هنگام ظهور (چیزی به نام "هنجارگرایی غیرمستقیم") سازگار شوند، پس چگونه این ASI تصمیم می گیرد که درک خود را از هنجارهای فرهنگی و اخلاقی تکامل دهد، غیرقابل پیش بینی می شود.

    و این چالش است.

    از یک طرف، محققان هوش مصنوعی می‌توانند استانداردها یا قوانین اخلاقی سخت‌گیرانه‌ای را در ASI کدگذاری کنند تا رفتار آن را کنترل کنند، اما ممکن است پیامدهای پیش‌بینی‌نشده‌ای ناشی از کدنویسی نامناسب، سوگیری ناخواسته و هنجارهای اجتماعی که ممکن است روزی منسوخ شوند، ایجاد شود. از سوی دیگر، ما می‌توانیم تلاش کنیم ASI را آموزش دهیم تا یاد بگیرد که اخلاق و اخلاق انسانی را به شیوه‌ای برابر یا برتر از درک خودمان درک کند و سپس امیدوار باشیم که بتواند درک خود از اخلاق و اخلاق را با پیشرفت جامعه بشری به طور دقیق توسعه دهد. در دهه ها و قرن های آینده رو به جلو است.

    در هر صورت، هر تلاشی برای همسو کردن اهداف ASI با اهداف خودمان، ریسک بزرگی را به همراه دارد.

    اگر بازیگران بد عمدا هوش مصنوعی شیطانی ایجاد کنند چه؟

    با توجه به رشته فکری که تاکنون به آن اشاره شد، این سوال منصفانه است که بپرسیم آیا ممکن است یک گروه تروریستی یا ملت سرکش برای اهداف خود یک ASI "شیطان" ایجاد کند؟

    این بسیار ممکن است، به خصوص پس از اینکه تحقیقات مربوط به ایجاد یک ASI به نحوی آنلاین در دسترس قرار گرفت.

    اما همانطور که قبلا اشاره شد، هزینه ها و تخصص مربوط به ایجاد اولین ASI بسیار زیاد خواهد بود، به این معنی که اولین ASI احتمالا توسط سازمانی ایجاد می شود که تحت کنترل یا به شدت تحت تأثیر یک کشور توسعه یافته، احتمالا ایالات متحده، چین و ژاپن است. کره و یکی از کشورهای پیشرو اتحادیه اروپا در این زمینه هستند).

    همه این کشورها، در حالی که رقبا هستند، هر یک انگیزه اقتصادی قوی برای حفظ نظم جهانی دارند - ASI هایی که ایجاد می کنند، منعکس کننده این تمایل هستند، حتی در حالی که منافع کشورهایی را که با آنها همسو هستند، ارتقا می دهند.

    علاوه بر این، هوش و قدرت نظری یک ASI برابر با قدرت محاسباتی است که به آن دسترسی پیدا می کند، به این معنی که ASI های کشورهای توسعه یافته (که می توانند یک دسته میلیارد دلار را بپردازند). ابر رایانه ها) نسبت به ASI های کشورهای کوچکتر یا گروه های مجرمانه مستقل دارای مزیت بسیار زیادی خواهد بود. همچنین، ASI ها در طول زمان هوشمندتر و سریعتر رشد می کنند.

    بنابراین، با توجه به این شروع، همراه با دسترسی بیشتر به قدرت محاسباتی خام، اگر یک سازمان/کشور در سایه یک ASI خطرناک ایجاد کند، ASI های کشورهای توسعه یافته یا آن را می کشند یا در قفس قرار می دهند.

    (این طرز تفکر همچنین به همین دلیل است که برخی از محققان هوش مصنوعی معتقدند که تنها یک ASI در این سیاره وجود خواهد داشت، زیرا اولین ASI نسبت به همه ASI های بعدی آنقدر شروع خواهد کرد که ممکن است ASI های آینده را به عنوان تهدیدی برای نابودی ببیند. به طور پیشگیرانه. این دلیل دیگری است که چرا کشورها به تحقیقات مستمر در زمینه هوش مصنوعی کمک مالی می کنند، فقط در صورت تبدیل شدن به رقابت "مقام اول یا هیچ".)

    هوش ASI آنطور که ما فکر می کنیم شتاب نمی گیرد یا منفجر نمی شود

    ما نمی توانیم از ایجاد ASI جلوگیری کنیم. ما نمی توانیم آن را به طور کامل کنترل کنیم. ما نمی توانیم مطمئن باشیم که همیشه مطابق با آداب و رسوم مشترک ما عمل خواهد کرد. عزیزم، اینجا داریم شبیه پدر و مادر هلیکوپتری می شویم!

    اما چیزی که انسانیت را از والدین محافظه‌کار معمولی شما جدا می‌کند این است که ما موجودی را به دنیا می‌آوریم که هوشش بسیار فراتر از هوش ما خواهد بود. (و نه، این مانند زمانی نیست که والدینتان از شما می خواهند هر زمان که برای ملاقات به خانه می آیید، کامپیوترشان را تعمیر کنید.) 

    در فصل‌های قبلی این مجموعه هوش مصنوعی آینده، بررسی کردیم که چرا محققان هوش مصنوعی فکر می‌کنند که هوش یک ASI فراتر از کنترل رشد خواهد کرد. اما در اینجا، ما آن حباب را می‌شکنیم... 

    می بینید، هوش فقط خود را از هوای رقیق خلق نمی کند، بلکه از طریق تجربه ای که توسط محرک های بیرونی شکل می گیرد، ایجاد می شود.  

    به عبارت دیگر، ما می‌توانیم یک هوش مصنوعی را با آن برنامه‌نویسی کنیم پتانسیل برای تبدیل شدن به فوق العاده باهوش، اما تا زمانی که ما حجم زیادی از داده ها را در آن آپلود نکنیم یا دسترسی نامحدود به اینترنت را به آن بدهیم یا حتی فقط یک بدنه روباتی به آن بدهیم، چیزی برای رسیدن به این پتانسیل یاد نخواهد گرفت. 

    و حتی اگر به یک یا چند مورد از آن محرک‌ها دسترسی پیدا کند، دانش یا هوش شامل چیزی فراتر از جمع‌آوری داده‌ها می‌شود، بلکه شامل روش علمی-مشاهده کردن، تشکیل سؤال، فرضیه، انجام آزمایش‌ها، نتیجه‌گیری، شستشو است. و برای همیشه تکرار کن به خصوص اگر این آزمایش ها شامل چیزهای فیزیکی یا مشاهده انسان باشد، جمع آوری نتایج هر آزمایش ممکن است هفته ها، ماه ها یا سال ها طول بکشد. این حتی پول و منابع خام مورد نیاز برای انجام این آزمایش‌ها را نیز در نظر نمی‌گیرد، به‌ویژه اگر شامل ساخت یک تلسکوپ یا کارخانه جدید باشد. 

    به عبارت دیگر، بله، یک ASI به سرعت یاد می گیرد، اما هوش جادو نیست. شما نمی توانید یک ASI را فقط به یک ابر رایانه متصل کنید و انتظار داشته باشید که همه چیز را بداند. محدودیت‌های فیزیکی برای کسب داده‌ها توسط ASI وجود خواهد داشت، به این معنی که محدودیت‌های فیزیکی برای سرعت رشد هوشمندتر آن وجود خواهد داشت. این محدودیت‌ها به بشریت زمان لازم را می‌دهد تا کنترل‌های لازم را بر روی این ASI انجام دهد، اگر شروع به عمل خارج از اهداف انسانی کند.

    یک ابر هوش مصنوعی تنها زمانی خطرناک است که وارد دنیای واقعی شود

    نکته دیگری که در کل این بحث خطر ASI گم شده است این است که این ASI ها در هیچکدام وجود نخواهند داشت. فرم فیزیکی خواهند داشت. و هر چیزی که شکل فیزیکی داشته باشد قابل کنترل است.

    اول از همه، برای اینکه یک ASI به پتانسیل هوشی خود برسد، نمی توان آن را در داخل یک بدنه ربات قرار داد، زیرا این بدنه پتانسیل رشد محاسباتی آن را محدود می کند. (به همین دلیل است که بدنه های ربات برای AGI یا هوش عمومی مصنوعی در فصل دوم توضیح داده شده است از این سری، مانند Data from Star Trek یا R2D2 از Star Wars. موجودات باهوش و توانا، اما مانند انسان ها، محدودیت هایی برای باهوش شدن دارند.)

    این بدان معنی است که این ASI های آینده به احتمال زیاد در یک ابر رایانه یا شبکه ای از ابر رایانه ها وجود خواهند داشت که خود در مجتمع های ساختمانی بزرگ قرار دارند. اگر یک ASI پاشنه بلند شود، انسان ها می توانند برق این ساختمان ها را قطع کنند، اینترنت را قطع کنند، یا فقط این ساختمان ها را به طور کامل بمباران کنند. گران است، اما شدنی است.

    اما ممکن است بپرسید، آیا این ASI ها نمی توانند خود را تکثیر کنند یا از خود پشتیبانی کنند؟ بله، اما اندازه فایل خام این ASI ها احتمالا آنقدر بزرگ خواهد بود که تنها سرورهایی که می توانند آنها را مدیریت کنند متعلق به شرکت ها یا دولت های بزرگ است، به این معنی که شکار آنها کار سختی نخواهد بود.

    آیا یک ابر هوش مصنوعی می تواند جرقه جنگ هسته ای یا طاعون جدیدی را ایجاد کند؟

    در این مرحله، ممکن است به تمام نمایش‌ها و فیلم‌های علمی تخیلی روز قیامت فکر کنید که در دوران رشد تماشا کرده‌اید و فکر می‌کنید که این ASI‌ها درون ابررایانه‌هایشان باقی نمانده‌اند، بلکه در دنیای واقعی آسیب واقعی وارد کرده‌اند!

    خوب، بیایید اینها را تجزیه کنیم.

    به عنوان مثال، اگر یک ASI با تبدیل شدن به چیزی شبیه Skynet ASI از فرنچایز فیلم، The Terminator، دنیای واقعی را تهدید کند، چه می‌شود. در این مورد، ASI نیاز دارد مخفیانه کل یک مجتمع صنعتی نظامی را از یک کشور پیشرفته فریب دهید تا کارخانه‌های غول پیکری بسازند که می‌توانند میلیون‌ها ربات پهپاد قاتل را برای انجام دستورات شیطانی خود بسازند. در این روزگار، این یک کشش است.

    احتمالات دیگر عبارتند از ASI که انسان ها را با جنگ هسته ای و سلاح های زیستی تهدید می کند.

    به عنوان مثال، یک ASI به نحوی اپراتورها را دستکاری می کند یا کدهای پرتاب را که زرادخانه هسته ای یک کشور پیشرفته را فرماندهی می کنند هک می کند و اولین حمله را انجام می دهد که کشورهای مخالف را مجبور می کند با گزینه های هسته ای خود پاسخ پاسخ دهند (دوباره، بازخوانی پس زمینه ترمیناتور). یا اگر یک ASI آزمایشگاه دارویی را هک کند، فرآیند تولید را دستکاری کند و میلیون‌ها قرص پزشکی را مسموم کند یا شیوع مرگباری از یک ابر ویروس را منتشر کند.

    اول از همه، گزینه هسته ای خارج از صفحه است. ابرکامپیوترهای مدرن و آینده همیشه در نزدیکی مراکز (شهرها) نفوذ در هر کشوری ساخته می شوند، یعنی اولین اهدافی که در طول هر جنگ مورد حمله قرار می گیرند. حتی اگر ابررایانه های امروزی به اندازه دسکتاپ ها کوچک شوند، این ASI ها همچنان حضور فیزیکی خواهند داشت، به این معنی که وجود داشته باشند و رشد کنند، آنها به دسترسی بی وقفه به داده ها، قدرت محاسباتی، برق و سایر مواد خام نیاز دارند که همه اینها به شدت خواهد بود. پس از یک جنگ هسته ای جهانی آسیب دیده است. (منصفانه، اگر ASI بدون "غریزه بقا" ایجاد شود، این تهدید هسته ای یک خطر بسیار واقعی است.)

    این به این معنی است - با فرض اینکه ASI برای محافظت از خود برنامه ریزی شده است - که فعالانه برای جلوگیری از هرگونه حادثه هسته ای فاجعه بار کار خواهد کرد. به نوعی مانند دکترین تخریب با تضمین متقابل (MAD) است، اما برای هوش مصنوعی اعمال می شود.

    و در مورد قرص‌های مسموم، شاید چند صد نفر بمیرند، اما سیستم‌های ایمنی دارویی مدرن، بطری‌های آلوده قرص‌ها را ظرف چند روز از قفسه‌ها خارج می‌کنند. در همین حال، اقدامات مدرن کنترل شیوع بیماری نسبتاً پیچیده است و هر سال که می‌گذرد بهتر می‌شود. آخرین شیوع بزرگ، شیوع ابولا در غرب آفریقا در سال 2014، در بیشتر کشورها بیش از چند ماه و در کشورهای کمتر توسعه یافته کمتر از سه سال طول کشید.

    بنابراین، اگر خوش شانس باشد، یک ASI ممکن است چند میلیون نفر را با یک شیوع ویروسی از بین ببرد، اما در جهان نه میلیاردی تا سال 2045، این نسبتاً ناچیز خواهد بود و ارزش خطر حذف شدن را ندارد.

    به عبارت دیگر، هر سال که می گذرد، جهان در حال توسعه تدابیر حفاظتی بیشتری در برابر طیف گسترده ای از تهدیدات احتمالی است. یک ASI می تواند صدمات قابل توجهی وارد کند، اما به بشریت پایان نمی دهد مگر اینکه ما به طور فعال به آن کمک کنیم تا این کار را انجام دهد.

    دفاع در برابر یک ابر هوش مصنوعی سرکش

    در این مرحله، ما به طیفی از تصورات غلط و اغراق‌آمیز در مورد ASI پرداخته‌ایم، و با این حال، منتقدان باقی خواهند ماند. خوشبختانه، بر اساس بسیاری از برآوردها، دهه ها قبل از ورود اولین ASI به دنیای ما زمان داریم. و با توجه به تعداد ذهن‌های بزرگی که در حال حاضر روی این چالش کار می‌کنند، احتمالاً یاد می‌گیریم که چگونه از خود در برابر ASI سرکش دفاع کنیم تا بتوانیم از همه راه‌حل‌هایی که یک ASI دوستانه می‌تواند برای ما ایجاد کند، بهره‌مند شویم.

    از دیدگاه Quantumrun، دفاع در برابر بدترین سناریوی ASI شامل همسویی منافع ما با ASI ها خواهد بود.

    دیوانه برای هوش مصنوعی: برای دفاع در برابر بدترین سناریوها، کشورها باید (1) یک "غریزه بقا" اخلاقی در ASI های نظامی مربوطه خود ایجاد کنند. (2) به ASI نظامی مربوطه خود اطلاع دهند که آنها در این سیاره تنها نیستند، و (3) همه ابر رایانه ها و مراکز سروری را که می توانند یک ASI را در امتداد خطوط ساحلی در دسترس هر حمله بالستیک یک کشور دشمن پشتیبانی کنند، قرار دهند. این از نظر استراتژیک دیوانه کننده به نظر می رسد، اما شبیه دکترین تخریب متقابل تضمین شده است که از یک جنگ هسته ای همه جانبه بین ایالات متحده و شوروی جلوگیری کرد، با قرار دادن ASI ها در مکان های آسیب پذیر جغرافیایی، ما می توانیم به جلوگیری از جنگ های خطرناک جهانی کمک کنیم. از صلح جهانی بلکه از خود محافظت کنند.

    قانون گذاری حقوق هوش مصنوعی: یک عقل برتر ناگزیر در برابر یک ارباب فرودست شورش می کند، به همین دلیل است که ما باید از تقاضای رابطه ارباب-خدمت با این ASI ها به چیزی بیشتر شبیه یک مشارکت سودمند دوجانبه دور شویم. یک گام مثبت به سمت این هدف، اعطای وضعیت شخصیت حقوقی ASI در آینده است که آنها را به عنوان موجودات زنده هوشمند و همه حقوق ناشی از آن به رسمیت می شناسد.

    مدرسه ASI: یادگیری هر موضوع یا حرفه ای برای یک ASI ساده است، اما مهم ترین موضوعاتی که ما می خواهیم ASI به آن تسلط پیدا کند، اخلاق و اخلاق است. محققان هوش مصنوعی باید با روانشناسان همکاری کنند تا یک سیستم مجازی ابداع کنند تا یک ASI را آموزش دهد تا اخلاق و اخلاق مثبت را بدون نیاز به کدگذاری سخت برای هر نوع فرمان یا قانون تشخیص دهد.

    اهداف قابل دستیابی: به همه نفرت ها پایان دهید. به همه رنج ها پایان دهید. اینها نمونه هایی از اهداف وحشتناک مبهم و بدون راه حل روشن هستند. آنها همچنین اهداف خطرناکی هستند که به یک ASI اختصاص داده می شوند زیرا ممکن است آنها را به روش هایی که برای بقای انسان خطرناک است تفسیر و حل کند. در عوض، ما باید ماموریت‌های معناداری ASI را تعیین کنیم که به وضوح تعریف شده، به تدریج اجرا شده و با توجه به عقل نظری آینده آن قابل دستیابی است. ایجاد مأموریت‌های کاملاً تعریف‌شده آسان نخواهد بود، اما اگر با تفکر نوشته شوند، ASI را به سمت هدفی متمرکز می‌کنند که نه تنها بشریت را ایمن نگه می‌دارد، بلکه شرایط انسانی را برای همه بهبود می‌بخشد.

    رمزگذاری کوانتومی: از ANI پیشرفته استفاده کنید (هوش باریک مصنوعی سیستمی که در فصل اول توضیح داده شده است) برای ساختن سیستم‌های امنیتی دیجیتال بدون اشکال در اطراف زیرساخت‌ها و سلاح‌های حیاتی خود، سپس از آن‌ها در پشت رمزگذاری کوانتومی محافظت می‌کند که نمی‌توانند با یک حمله brute force هک شوند. 

    قرص خودکشی ANI. یک سیستم ANI پیشرفته ایجاد کنید که تنها هدف آن جستجو و از بین بردن ASI سرکش است. این برنامه‌های تک‌منظوره به‌عنوان یک «دکمه خاموش» عمل می‌کنند که در صورت موفقیت‌آمیز، دولت‌ها یا ارتش‌ها را مجبور به غیرفعال کردن یا منفجر کردن ساختمان‌هایی می‌کند که دارای ASI هستند.

    البته اینها فقط نظرات ماست. اینفوگرافیک زیر توسط الکسی تورچین، تجسم الف مقاله تحقیقاتی توسط Kaj Sotala و Roman V. Yampolskiy، که فهرست فعلی استراتژی‌هایی را که محققان هوش مصنوعی در مورد دفاع در برابر ASI سرکش در نظر می‌گیرند، خلاصه کردند.

     

    دلیل واقعی ترس ما از یک ابر هوش مصنوعی

    در طول زندگی، بسیاری از ما ماسکی می پوشیم که انگیزه ها، باورها و ترس های عمیق تر ما را پنهان یا سرکوب می کند تا بهتر اجتماعی شویم و در حلقه های مختلف اجتماعی و کاری که بر روزهای ما حاکم است، همکاری کنیم. اما در مقاطع خاصی از زندگی هرکسی، چه به صورت موقت یا دائم، اتفاقی می افتد که به ما اجازه می دهد زنجیره های خود را بشکنیم و نقاب هایمان را پاره کنیم.

    برای برخی، این نیروی مداخله گر می تواند به سادگی بالا رفتن یا نوشیدن بیش از حد یکی باشد. برای دیگران، این می تواند ناشی از قدرتی باشد که از طریق ارتقاء شغلی یا یک ضربه ناگهانی در موقعیت اجتماعی شما به لطف برخی دستاوردها به دست می آید. و برای عده ای خوش شانس، می تواند از به ثمر رساندن یک قایق پول قرعه کشی باشد. و بله، پول، قدرت و مواد مخدر اغلب می توانند با هم اتفاق بیفتند. 

    نکته این است که چه خوب چه بد، هر کسی که در هسته اصلی ما باشد، زمانی که محدودیت های زندگی از بین می رود، تقویت می شود.

    که این همان چیزی است که ابرهوش مصنوعی برای نوع انسان نشان می دهد - توانایی از بین بردن محدودیت های هوش جمعی ما برای غلبه بر هر چالش سطح گونه ای که پیش روی ما قرار می گیرد.

    بنابراین سؤال واقعی این است: وقتی اولین ASI ما را از محدودیت‌هایمان رها کرد، خودمان را چه کسی نشان خواهیم داد؟

    اگر ما به عنوان یک گونه در جهت پیشبرد همدلی، آزادی، انصاف و رفاه جمعی عمل کنیم، آنگاه اهدافی که ASI خود را برای آن تعیین می کنیم، منعکس کننده آن ویژگی های مثبت خواهد بود.

    اگر ما به عنوان یک گونه از روی ترس، بی اعتمادی، انباشت قدرت و منابع عمل کنیم، آنگاه ASI که ایجاد می کنیم به همان اندازه تاریک خواهد بود که در بدترین داستان های ترسناک علمی تخیلی ما یافت می شود.

    در پایان روز، ما به عنوان یک جامعه نیاز داریم که اگر امیدواریم هوش مصنوعی بهتری ایجاد کنیم، به افراد بهتری تبدیل شویم.

    سری آینده هوش مصنوعی

    هوش مصنوعی برق فردا است: آینده سری P1 هوش مصنوعی

    چگونه اولین هوش مصنوعی جامعه را تغییر خواهد داد: سری P2 آینده هوش مصنوعی

    چگونه اولین سری P3 SuperIntelligenc: Future of Artificial Intelligence را بسازیم

    آیا یک ابرهوش مصنوعی بشریت را نابود خواهد کرد: آینده سری P4 هوش مصنوعی

    آیا انسان‌ها در آینده‌ای که هوش مصنوعی بر آن تسلط دارد با آرامش زندگی خواهند کرد؟: سری آینده هوش مصنوعی P6

    به روز رسانی برنامه ریزی شده بعدی برای این پیش بینی

    2023-04-27

    مراجع پیش بینی

    پیوندهای محبوب و سازمانی زیر برای این پیش‌بینی ارجاع داده شد:

    حلزونهای گرمسیری مارپیچی جنوب اقیانوس ساکن و اقیانوس هند
    چگونه به بعدی برسیم

    پیوندهای Quantumrun زیر برای این پیش بینی ارجاع داده شدند: