پلیس فضای مجازی - آینده مبارزه با هوش مصنوعی منحرف

پلیس فضای سایبری - آینده مبارزه با هوش مصنوعی انحرافی
اعتبار تصویر:  

پلیس فضای مجازی - آینده مبارزه با هوش مصنوعی منحرف

    • نام نویسنده
      خلیل حاجی
    • نویسنده توییتر هندل
      @TheBldBrnBar

    داستان کامل (فقط از دکمه «جای‌گذاری از ورد» برای کپی و جای‌گذاری ایمن متن از یک سند Word استفاده کنید)

    عصر هوش مصنوعی و احساسات بالقوه آن با سرعتی نگران کننده در حال طلوع در تمدن است. فناوری همیشه به رشد تصاعدی شناخته شده است و قلمرو فناوری‌های هوش مصنوعی تفاوتی ندارد. با رشد بیش از حد، لیست کوتاهی از مشکلات به دست می آید که تا حد زیادی در هاله ای از رمز و راز قرار دارند. از آنجایی که هرگز تا این حد جرأت نکرده ایم تا احساسات را به ساختارهای غیرانسانی القا کنیم، بیشتر با «چه می شد اگر» مواجه می شویم تا مسائل عینی. هوش مصنوعی انحرافی و بدخواه که کنترل آن را از دست می‌دهیم، در این زمینه با پتانسیل اعمال کنترل مستبدانه بر زیرساخت‌های انسانی در سطح خرد و کلان، در خط مقدم قرار می‌گیرد. 

     

    تحقیقات مربوط به خطرات بالقوه هوش مصنوعی بدخواهانه هنوز در مراحل اولیه است و تاکنون در چرخه زندگی خود به خوبی انجام نشده است. به نظر می‌رسد مهندسی معکوس برنامه‌های هوش مصنوعی انحرافی کاندیدای احتمالی برای درک بهتر نحوه برخورد با حوادث مجزا باشد، اما همچنین پتانسیل‌های یک رویداد وجودی در مقیاس بزرگ را در بر نمی‌گیرد. ایده یک سیستم هوش مصنوعی که بر برنامه‌ریزی خود سبقت می‌گیرد و نقش مورد نظر خود را تغییر می‌دهد، بدون شک در آینده یک مسئله اجتماعی، اقتصادی و سیاسی خواهد بود و یک مسئله کلیدی برای جو و دانشمند فضای مجازی به طور یکسان. 

    گذشته، حال و آینده هوش مصنوعی 

    رشته هوش مصنوعی در سال 1965 در کنفرانس کالج دارتموث تاسیس شد. برخی از باهوش‌ترین ذهن‌ها در این روز با هیجان زیادی درباره امکاناتی که این برنامه‌ها می‌توانند به ارمغان بیاورند و کارایی حل مشکل زیرساخت‌های هوش مصنوعی آینده گرد هم آمدند. در حالی که بودجه دولتی در این زمینه بسیار کم و زیاد شده بود، اواخر دهه 90 شاهد کاربرد عملی فناوری هوش مصنوعی بودیم، زمانی که Deep Blue IBM اولین کامپیوتری شد که یک استاد بزرگ شطرنج را شکست داد. این امر با حضور در نمایش‌های مسابقه‌ای، مانند Jeopardy، دریچه‌هایی را برای هوش مصنوعی در فرهنگ پاپ باز کرد که قدرت یک برنامه اصلی هوش مصنوعی را به نمایش گذاشت.  

     

    امروزه ما تقریباً در هر زمینه و جنبه ای از زندگی خود، برنامه های کاربردی هوش مصنوعی را می بینیم. از برنامه‌های مبتنی بر الگوریتم که با ما تعامل دارند و کالاهای مصرفی را بر اساس علایق و علاقه‌های ما به بازار می‌برند، تا دستگاه‌های تصویربرداری پزشکی که مقادیر بسیار زیادی از اطلاعات را برای کشف الگوها برای کمک به درمان بهتر بیماران جذب می‌کنند، استفاده از این فناوری‌ها به میزان زیادی در دامنه آنها متفاوت است. . در آینده، فناوری هوش مصنوعی می‌تواند در سلول‌های بدن ما ادغام شود. فناوری‌های هوش مصنوعی و زیست‌شناسی انسانی می‌توانند این شکاف را پر کنند و به عنوان یک واحد منسجم به نام کارآمدی و انقلاب وجود انسان عمل کنند. ایلان ماسک از تسلا حتی ادعا می‌کند که «به مرور زمان فکر می‌کنم احتمالاً شاهد ادغام هوش بیولوژیکی و هوش دیجیتالی خواهیم بود» و این ترکیب «بیشتر در مورد پهنای باند، سرعت ارتباط بین مغز شما و نسخه دیجیتالی است. خودتان، به ویژه خروجی». اگر این آینده هوش مصنوعی است، آیا واقعاً می‌توانیم بر انحراف برنامه‌های هوش مصنوعی امروز نظارت نکنیم، چه رسد به برنامه‌های پیشرفته‌تر آینده؟ 

    راه انحراف 

    ما قبلاً نمونه های جداگانه ای از نقض برنامه نویسی مورد نظر هوش مصنوعی را دیده ایم. همین سال گذشته، سیستم هوش مصنوعی DeepMind Google (که عمدتاً به دلیل شکست دادن قهرمانان بازی‌های تخته پیچیده و تقلید بی‌عیب و نقص صدای انسان‌های مختلف شناخته می‌شود) وقتی با پتانسیل از دست دادن یک بازی رایانه‌ای جمع‌آوری میوه که در آن دو برنامه با یکدیگر رقابت می‌کردند، بسیار تهاجمی شد. تا آنجا که می توانند سیب مجازی جمع آوری کنند. تا زمانی که سیب‌ها کمیاب‌تر شدند، برنامه‌ها مستقل بودند. این کمبود سیب های مجازی باعث شد که برنامه ها از استراتژی های "بسیار تهاجمی" برای بهترین برنامه های دیگر استفاده کنند. اگرچه این برنامه‌ها برای انجام وظایف خاص و در عین حال سازگاری طراحی شده بودند، پرخاشگری در روش‌های آن مشکل‌ساز بود. 

    فضای مجازی میدان جنگ 

    چگونه می‌توانیم منطقه‌ای را که عمدتاً ماهیت غیر فیزیکی دارد، اداره کنیم؟ اگر یک جنایت توسط یک هوش مصنوعی باهوش مرتکب شود، چه ردپایی باقی می‌ماند، و از چه نظر ما توانایی‌های روحی برای آزار و اذیت هوش مصنوعی یا خالق آن را داریم؟ اینها سوالاتی است که در ذهن افراد متخصص ایمنی سایبری بسیار اندک است. با توجه به اینکه تنها 10,000 محقق در سراسر جهان بر روی هوش مصنوعی کار می کنند، تنها 10 درصد از آنها در بررسی این موضوع که اگر هر یک از این سیستم ها شکست بخورند یا ماهیت انگلی پیدا کنند، چه اتفاقی می افتد و حتی کمتر در اخلاق و اخلاق آن آگاهی دارند، آشنا هستند. اگرچه ممکن است این مشکل به نظر برسد، اما کاری که برای درک این روابط انجام می‌شود در حال پیشرفت است. این فرآیند به سادگی ایجاد یک برنامه بدخواه از ابتدا و استفاده از این برنامه ها به عنوان پایه ای برای درک اینکه چگونه برنامه های دیگر می توانند منحرف شوند و مشکلاتی ایجاد کنند، است. با برداشتن این گام‌ها، به یک رویکرد شناختی‌تر برای توسعه زیرساخت‌های هوش مصنوعی ما منجر می‌شود تا شیوع بدخواهی رخ ندهد، و همچنین درک نحوه نفوذ و خاموش کردن هوش مصنوعی که از طریق تلاش‌های منحرف انسانی به سلاح تبدیل شده است. 

     

    روش دیگری که متخصصان امنیت سایبری برای مقابله با برنامه های هوش مصنوعی یاد می گیرند، مکانیسم های غربالگری آن است. اجماع نشان می‌دهد که هوش مصنوعی‌هایی که با اهداف مخرب طراحی شده‌اند، بیشترین خطر را به همراه دارند، که با توجه به اینکه تکامل کامل یک برنامه نیست، خبر خوبی است. این امر پیشگیری را به یک رویکرد انسانی‌محورتر می‌آورد، به این صورت که مجرمان باید از منابع برخوردار باشند و از منابع محروم شوند تا برنامه‌ای با پتانسیل تأثیرات مخرب را آغاز کنند یا به قصد ایجاد چنین برنامه‌هایی متهم شوند.  

     

    اصول اخلاقی و اخلاقی این موضوع دوباره بسیار جدید است، و تنها حدود 12 نفر از افراد درگیر با تحقیقات هوش مصنوعی حتی شروع به تعیین استاندارد برای این کار کرده‌اند. همانطور که درک ما رشد می کند، تکامل خواهد یافت. 

    گزينه ها
    دسته بندی
    گزينه ها
    زمینه موضوع

    جدول زمانی آینده