حملات سایبری خودکار با استفاده از هوش مصنوعی: زمانی که ماشین‌ها به مجرمان سایبری تبدیل می‌شوند

اعتبار تصویر:
تصویر های اعتباری
iStock

حملات سایبری خودکار با استفاده از هوش مصنوعی: زمانی که ماشین‌ها به مجرمان سایبری تبدیل می‌شوند

حملات سایبری خودکار با استفاده از هوش مصنوعی: زمانی که ماشین‌ها به مجرمان سایبری تبدیل می‌شوند

متن زیر عنوان
قدرت هوش مصنوعی (AI) و یادگیری ماشین (ML) توسط هکرها برای موثرتر و مرگبارتر کردن حملات سایبری مورد سوء استفاده قرار می‌گیرد.
    • نویسنده:
    • نام نویسنده
      آینده نگاری کوانتوم ران
    • سپتامبر 30، 2022

    خلاصه بینش

    هوش مصنوعی (AI) و یادگیری ماشین (ML) به طور فزاینده ای در امنیت سایبری، هم برای محافظت از سیستم ها و هم در اجرای حملات سایبری استفاده می شود. توانایی آنها برای یادگیری از داده ها و رفتارها آنها را قادر می سازد تا آسیب پذیری های سیستم را شناسایی کنند، اما ردیابی منبع پشت این الگوریتم ها را نیز دشوار می کند. این چشم‌انداز در حال تحول هوش مصنوعی در جرایم سایبری نگرانی‌هایی را در میان کارشناسان فناوری اطلاعات ایجاد می‌کند، به استراتژی‌های دفاعی پیشرفته نیاز دارد و ممکن است منجر به تغییرات قابل‌توجهی در نحوه رویکرد دولت‌ها و شرکت‌ها به امنیت سایبری شود.

    حملات سایبری خودکار با استفاده از زمینه هوش مصنوعی

    هوش مصنوعی و ML توانایی خودکار کردن تقریباً تمام وظایف، از جمله یادگیری از رفتارها و الگوهای تکراری را حفظ می‌کنند و ابزاری قدرتمند برای شناسایی آسیب‌پذیری‌های یک سیستم می‌سازند. مهمتر از آن، هوش مصنوعی و ML تعیین دقیق یک شخص یا موجودیت در پشت یک الگوریتم را چالش برانگیز می کند.

    در سال 2022، در جریان کمیته فرعی خدمات مسلح سنای ایالات متحده در مورد امنیت سایبری، اریک هورویتز، مدیر ارشد علمی مایکروسافت، از استفاده از هوش مصنوعی (AI) برای خودکارسازی حملات سایبری به عنوان "هوش مصنوعی تهاجمی" یاد کرد. او تاکید کرد که تشخیص اینکه آیا یک حمله سایبری مبتنی بر هوش مصنوعی است یا خیر، دشوار است. به طور مشابه، یادگیری ماشینی (ML) برای کمک به حملات سایبری استفاده می شود. ML برای یادگیری کلمات و استراتژی های رایج در ایجاد رمز عبور برای هک بهتر آنها استفاده می شود. 

    یک نظرسنجی توسط شرکت امنیت سایبری Darktrace نشان داد که تیم‌های مدیریت فناوری اطلاعات به طور فزاینده‌ای نگران استفاده بالقوه هوش مصنوعی در جرایم سایبری هستند، به طوری که 96 درصد از پاسخ‌دهندگان نشان دادند که در حال تحقیق روی راه‌حل‌های ممکن هستند. کارشناسان امنیت فناوری اطلاعات تغییری را در روش‌های حمله سایبری از باج‌افزار و فیشینگ به بدافزار پیچیده‌تر احساس می‌کنند که شناسایی و انحراف آن دشوار است. خطر احتمالی جرایم سایبری مبتنی بر هوش مصنوعی، معرفی داده های خراب یا دستکاری شده در مدل های ML است.

    حمله ML می‌تواند بر نرم‌افزار و سایر فناوری‌هایی که در حال حاضر برای پشتیبانی از رایانش ابری و هوش مصنوعی لبه‌ای در حال توسعه هستند، تأثیر بگذارد. داده‌های آموزشی ناکافی همچنین می‌تواند سوگیری‌های الگوریتمی مانند برچسب‌گذاری نادرست گروه‌های اقلیت یا تأثیرگذاری بر پلیس پیش‌بینی‌کننده برای هدف قرار دادن جوامع به حاشیه رانده شده را مجدداً تقویت کند. هوش مصنوعی می تواند اطلاعات ظریف اما فاجعه بار را به سیستم ها وارد کند که ممکن است عواقب طولانی مدت داشته باشد.

    تاثیر مخرب

    مطالعه محققان دانشگاه جورج تاون در مورد زنجیره کشتار سایبری (چک لیستی از وظایف انجام شده برای انجام یک حمله سایبری موفق) نشان داد که استراتژی‌های تهاجمی خاص می‌توانند از ML سود ببرند. این روش‌ها عبارتند از spearphishing (کلاهبرداری‌های ایمیلی که به سمت افراد و سازمان‌های خاص هدایت می‌شوند)، شناسایی نقاط ضعف در زیرساخت‌های فناوری اطلاعات، ارسال کدهای مخرب به شبکه‌ها و اجتناب از شناسایی توسط سیستم‌های امنیت سایبری. یادگیری ماشینی همچنین می‌تواند شانس موفقیت حملات مهندسی اجتماعی را افزایش دهد، جایی که افراد فریب داده می‌شوند تا اطلاعات حساس را فاش کنند یا اقدامات خاصی مانند تراکنش‌های مالی را انجام دهند. 

    علاوه بر این، زنجیره کشتار سایبری می تواند برخی از فرآیندها را خودکار کند، از جمله: 

    • نظارت گسترده - اسکنرهای مستقلی که اطلاعات را از شبکه های هدف، از جمله سیستم های متصل، دفاع و تنظیمات نرم افزار جمع آوری می کنند. 
    • تسلیحات گسترده - ابزارهای هوش مصنوعی نقاط ضعف زیرساخت را شناسایی کرده و کدی را برای نفوذ به این حفره ها ایجاد می کنند. این تشخیص خودکار همچنین می‌تواند اکوسیستم‌ها یا سازمان‌های دیجیتال خاصی را هدف قرار دهد. 
    • تحویل یا هک - ابزارهای هوش مصنوعی با استفاده از اتوماسیون برای اجرای spearphishing و مهندسی اجتماعی برای هدف قرار دادن هزاران نفر. 

    از سال 2023، نوشتن کدهای پیچیده هنوز در قلمرو برنامه نویسان انسانی است، اما کارشناسان معتقدند که زمان زیادی طول نمی کشد که ماشین ها نیز این مهارت را به دست آورند. AlphaCode DeepMind نمونه بارز چنین سیستم های هوش مصنوعی پیشرفته ای است. با تجزیه و تحلیل مقادیر زیادی کد به برنامه نویسان کمک می کند تا الگوها را یاد بگیرند و راه حل های کد بهینه سازی شده را تولید کنند.

    پیامدهای حملات سایبری خودکار با استفاده از هوش مصنوعی

    پیامدهای گسترده تر حملات سایبری خودکار با استفاده از هوش مصنوعی ممکن است شامل موارد زیر باشد: 

    • شرکت هایی که بودجه دفاع سایبری خود را برای توسعه راه حل های سایبری پیشرفته برای شناسایی و توقف حملات سایبری خودکار افزایش می دهند.
    • مجرمان سایبری در حال مطالعه روش‌های ML برای ایجاد الگوریتم‌هایی هستند که می‌توانند مخفیانه به سیستم‌های شرکتی و بخش عمومی حمله کنند.
    • افزایش حوادث حملات سایبری که به خوبی سازماندهی شده اند و چندین سازمان را به طور همزمان هدف قرار می دهند.
    • نرم افزار تهاجمی هوش مصنوعی که برای به دست گرفتن کنترل سلاح های نظامی، ماشین آلات و مراکز فرماندهی زیرساخت استفاده می شود.
    • نرم افزار هوش مصنوعی تهاجمی که برای نفوذ، اصلاح یا سوء استفاده از سیستم های یک شرکت برای از بین بردن زیرساخت های عمومی و خصوصی استفاده می شود. 
    • برخی از دولت‌ها به طور بالقوه دفاع دیجیتال بخش خصوصی داخلی خود را تحت کنترل و حفاظت آژانس‌های امنیت سایبری ملی مربوطه خود سازماندهی می‌کنند.

    سوالاتی که باید در نظر گرفته شود

    • سایر پیامدهای احتمالی حملات سایبری مبتنی بر هوش مصنوعی چیست؟
    • دیگر چگونه شرکت ها می توانند برای چنین حملاتی آماده شوند؟

    مراجع بینش

    پیوندهای محبوب و نهادی زیر برای این بینش ارجاع داده شد:

    مرکز امنیت و فناوری های نوظهور خودکارسازی حملات سایبری