پلیس فضای مجازی - آینده مبارزه با هوش مصنوعی منحرف
پلیس فضای مجازی - آینده مبارزه با هوش مصنوعی منحرف
عصر هوش مصنوعی و احساسات بالقوه آن با سرعتی نگران کننده در حال طلوع در تمدن است. فناوری همیشه به رشد تصاعدی شناخته شده است و قلمرو فناوریهای هوش مصنوعی تفاوتی ندارد. با رشد بیش از حد، لیست کوتاهی از مشکلات به دست می آید که تا حد زیادی در هاله ای از رمز و راز قرار دارند. از آنجایی که هرگز تا این حد جرأت نکرده ایم تا احساسات را به ساختارهای غیرانسانی القا کنیم، بیشتر با «چه می شد اگر» مواجه می شویم تا مسائل عینی. هوش مصنوعی انحرافی و بدخواه که کنترل آن را از دست میدهیم، در این زمینه با پتانسیل اعمال کنترل مستبدانه بر زیرساختهای انسانی در سطح خرد و کلان، در خط مقدم قرار میگیرد.
تحقیقات مربوط به خطرات بالقوه هوش مصنوعی بدخواهانه هنوز در مراحل اولیه است و تاکنون در چرخه زندگی خود به خوبی انجام نشده است. به نظر میرسد مهندسی معکوس برنامههای هوش مصنوعی انحرافی کاندیدای احتمالی برای درک بهتر نحوه برخورد با حوادث مجزا باشد، اما همچنین پتانسیلهای یک رویداد وجودی در مقیاس بزرگ را در بر نمیگیرد. ایده یک سیستم هوش مصنوعی که بر برنامهریزی خود سبقت میگیرد و نقش مورد نظر خود را تغییر میدهد، بدون شک در آینده یک مسئله اجتماعی، اقتصادی و سیاسی خواهد بود و یک مسئله کلیدی برای جو و دانشمند فضای مجازی به طور یکسان.
گذشته، حال و آینده هوش مصنوعی
رشته هوش مصنوعی در سال 1965 در کنفرانس کالج دارتموث تاسیس شد. برخی از باهوشترین ذهنها در این روز با هیجان زیادی درباره امکاناتی که این برنامهها میتوانند به ارمغان بیاورند و کارایی حل مشکل زیرساختهای هوش مصنوعی آینده گرد هم آمدند. در حالی که بودجه دولتی در این زمینه بسیار کم و زیاد شده بود، اواخر دهه 90 شاهد کاربرد عملی فناوری هوش مصنوعی بودیم، زمانی که Deep Blue IBM اولین کامپیوتری شد که یک استاد بزرگ شطرنج را شکست داد. این امر با حضور در نمایشهای مسابقهای، مانند Jeopardy، دریچههایی را برای هوش مصنوعی در فرهنگ پاپ باز کرد که قدرت یک برنامه اصلی هوش مصنوعی را به نمایش گذاشت.
امروزه ما تقریباً در هر زمینه و جنبه ای از زندگی خود، برنامه های کاربردی هوش مصنوعی را می بینیم. از برنامههای مبتنی بر الگوریتم که با ما تعامل دارند و کالاهای مصرفی را بر اساس علایق و علاقههای ما به بازار میبرند، تا دستگاههای تصویربرداری پزشکی که مقادیر بسیار زیادی از اطلاعات را برای کشف الگوها برای کمک به درمان بهتر بیماران جذب میکنند، استفاده از این فناوریها به میزان زیادی در دامنه آنها متفاوت است. . در آینده، فناوری هوش مصنوعی میتواند در سلولهای بدن ما ادغام شود. فناوریهای هوش مصنوعی و زیستشناسی انسانی میتوانند این شکاف را پر کنند و به عنوان یک واحد منسجم به نام کارآمدی و انقلاب وجود انسان عمل کنند. ایلان ماسک از تسلا حتی ادعا میکند که «به مرور زمان فکر میکنم احتمالاً شاهد ادغام هوش بیولوژیکی و هوش دیجیتالی خواهیم بود» و این ترکیب «بیشتر در مورد پهنای باند، سرعت ارتباط بین مغز شما و نسخه دیجیتالی است. خودتان، به ویژه خروجی». اگر این آینده هوش مصنوعی است، آیا واقعاً میتوانیم بر انحراف برنامههای هوش مصنوعی امروز نظارت نکنیم، چه رسد به برنامههای پیشرفتهتر آینده؟
راه انحراف
ما قبلاً نمونه های جداگانه ای از نقض برنامه نویسی مورد نظر هوش مصنوعی را دیده ایم. همین سال گذشته، سیستم هوش مصنوعی DeepMind Google (که عمدتاً به دلیل شکست دادن قهرمانان بازیهای تخته پیچیده و تقلید بیعیب و نقص صدای انسانهای مختلف شناخته میشود) وقتی با پتانسیل از دست دادن یک بازی رایانهای جمعآوری میوه که در آن دو برنامه با یکدیگر رقابت میکردند، بسیار تهاجمی شد. تا آنجا که می توانند سیب مجازی جمع آوری کنند. تا زمانی که سیبها کمیابتر شدند، برنامهها مستقل بودند. این کمبود سیب های مجازی باعث شد که برنامه ها از استراتژی های "بسیار تهاجمی" برای بهترین برنامه های دیگر استفاده کنند. اگرچه این برنامهها برای انجام وظایف خاص و در عین حال سازگاری طراحی شده بودند، پرخاشگری در روشهای آن مشکلساز بود.
فضای مجازی میدان جنگ
چگونه میتوانیم منطقهای را که عمدتاً ماهیت غیر فیزیکی دارد، اداره کنیم؟ اگر یک جنایت توسط یک هوش مصنوعی باهوش مرتکب شود، چه ردپایی باقی میماند، و از چه نظر ما تواناییهای روحی برای آزار و اذیت هوش مصنوعی یا خالق آن را داریم؟ اینها سوالاتی است که در ذهن افراد متخصص ایمنی سایبری بسیار اندک است. با توجه به اینکه تنها 10,000 محقق در سراسر جهان بر روی هوش مصنوعی کار می کنند، تنها 10 درصد از آنها در بررسی این موضوع که اگر هر یک از این سیستم ها شکست بخورند یا ماهیت انگلی پیدا کنند، چه اتفاقی می افتد و حتی کمتر در اخلاق و اخلاق آن آگاهی دارند، آشنا هستند. اگرچه ممکن است این مشکل به نظر برسد، اما کاری که برای درک این روابط انجام میشود در حال پیشرفت است. این فرآیند به سادگی ایجاد یک برنامه بدخواه از ابتدا و استفاده از این برنامه ها به عنوان پایه ای برای درک اینکه چگونه برنامه های دیگر می توانند منحرف شوند و مشکلاتی ایجاد کنند، است. با برداشتن این گامها، به یک رویکرد شناختیتر برای توسعه زیرساختهای هوش مصنوعی ما منجر میشود تا شیوع بدخواهی رخ ندهد، و همچنین درک نحوه نفوذ و خاموش کردن هوش مصنوعی که از طریق تلاشهای منحرف انسانی به سلاح تبدیل شده است.
روش دیگری که متخصصان امنیت سایبری برای مقابله با برنامه های هوش مصنوعی یاد می گیرند، مکانیسم های غربالگری آن است. اجماع نشان میدهد که هوش مصنوعیهایی که با اهداف مخرب طراحی شدهاند، بیشترین خطر را به همراه دارند، که با توجه به اینکه تکامل کامل یک برنامه نیست، خبر خوبی است. این امر پیشگیری را به یک رویکرد انسانیمحورتر میآورد، به این صورت که مجرمان باید از منابع برخوردار باشند و از منابع محروم شوند تا برنامهای با پتانسیل تأثیرات مخرب را آغاز کنند یا به قصد ایجاد چنین برنامههایی متهم شوند.
اصول اخلاقی و اخلاقی این موضوع دوباره بسیار جدید است، و تنها حدود 12 نفر از افراد درگیر با تحقیقات هوش مصنوعی حتی شروع به تعیین استاندارد برای این کار کردهاند. همانطور که درک ما رشد می کند، تکامل خواهد یافت.