الهجمات الإلكترونية الآلية باستخدام الذكاء الاصطناعي: عندما تصبح الآلات مجرمي إنترنت

رصيد الصورة:
الصورة الائتمان
ستوك

الهجمات الإلكترونية الآلية باستخدام الذكاء الاصطناعي: عندما تصبح الآلات مجرمي إنترنت

الهجمات الإلكترونية الآلية باستخدام الذكاء الاصطناعي: عندما تصبح الآلات مجرمي إنترنت

نص عنوان فرعي
يتم استغلال قوة الذكاء الاصطناعي (AI) والتعلم الآلي (ML) من قبل المتسللين لجعل الهجمات الإلكترونية أكثر فعالية وفتكًا.
    • كاتب:
    • اسم المؤلف
      البصيرة الكمومية
    • 30 سبتمبر 2022

    ملخص البصيرة

    يتم استخدام الذكاء الاصطناعي (AI) والتعلم الآلي (ML) بشكل متزايد في الأمن السيبراني، سواء لحماية الأنظمة أو في تنفيذ الهجمات السيبرانية. إن قدرتهم على التعلم من البيانات والسلوكيات تمكنهم من تحديد نقاط الضعف في النظام، ولكنها تجعل من الصعب أيضًا تتبع المصدر وراء هذه الخوارزميات. يثير هذا المشهد المتطور للذكاء الاصطناعي في الجرائم الإلكترونية مخاوف بين خبراء تكنولوجيا المعلومات، ويتطلب استراتيجيات دفاعية متقدمة، وقد يؤدي إلى تغييرات كبيرة في كيفية تعامل الحكومات والشركات مع الأمن السيبراني.

    الهجمات الإلكترونية الآلية باستخدام سياق الذكاء الاصطناعي

    يحتفظ الذكاء الاصطناعي والتعلم الآلي بالقدرة على أتمتة جميع المهام تقريبًا، بما في ذلك التعلم من السلوك والأنماط المتكررة، مما يجعل أداة قوية لتحديد نقاط الضعف في النظام. والأهم من ذلك، أن الذكاء الاصطناعي والتعلم الآلي يجعلان من الصعب تحديد شخص أو كيان وراء الخوارزمية.

    في عام 2022، خلال اللجنة الفرعية للخدمات المسلحة المعنية بالأمن السيبراني بمجلس الشيوخ الأمريكي، أشار إريك هورفيتز، كبير المسؤولين العلميين في شركة مايكروسوفت، إلى استخدام الذكاء الاصطناعي لأتمتة الهجمات السيبرانية باعتباره "ذكاء اصطناعيا هجوميا". وشدد على أنه من الصعب تحديد ما إذا كان الهجوم السيبراني يعتمد على الذكاء الاصطناعي. وبالمثل، يتم استخدام التعلم الآلي (ML) للمساعدة في الهجمات السيبرانية؛ يتم استخدام ML لتعلم الكلمات والاستراتيجيات شائعة الاستخدام في إنشاء كلمات المرور لاختراقها بشكل أفضل. 

    كشفت دراسة استقصائية أجرتها شركة Darktrace للأمن السيبراني أن فرق إدارة تكنولوجيا المعلومات تشعر بقلق متزايد بشأن الاستخدام المحتمل للذكاء الاصطناعي في الجرائم الإلكترونية، حيث أشار 96 بالمائة من المشاركين إلى أنهم يبحثون بالفعل عن الحلول الممكنة. يشعر خبراء أمن تكنولوجيا المعلومات بتحول في أساليب الهجوم السيبراني من برامج الفدية والتصيد الاحتيالي إلى برامج ضارة أكثر تعقيدًا يصعب اكتشافها وصدها. يتمثل الخطر المحتمل للجرائم الإلكترونية التي تدعم الذكاء الاصطناعي في إدخال بيانات تالفة أو تم التلاعب بها في نماذج تعلم الآلة.

    يمكن أن يؤثر هجوم ML على البرامج والتقنيات الأخرى التي يتم تطويرها حاليًا لدعم الحوسبة السحابية والذكاء الاصطناعي. يمكن أن تؤدي بيانات التدريب غير الكافية أيضًا إلى إعادة فرض تحيزات الخوارزميات مثل وضع علامات غير صحيحة على مجموعات الأقليات أو التأثير على الشرطة التنبؤية لاستهداف المجتمعات المهمشة. يمكن للذكاء الاصطناعي أن يُدخل معلومات دقيقة ولكن كارثية إلى الأنظمة، مما قد يكون له عواقب طويلة الأمد.

    التأثير التخريبي

    أظهرت دراسة أجراها باحثو جامعة جورجتاون حول سلسلة القتل عبر الإنترنت (قائمة مرجعية بالمهام التي يتم إجراؤها لإطلاق هجوم إلكتروني ناجح) أن استراتيجيات هجومية محددة يمكن أن تستفيد من ML. تتضمن هذه الأساليب spearphishing (عمليات الاحتيال عبر البريد الإلكتروني الموجهة إلى أشخاص ومؤسسات محددين) ، وتحديد نقاط الضعف في البنى التحتية لتكنولوجيا المعلومات ، وتقديم تعليمات برمجية ضارة إلى الشبكات ، وتجنب الكشف عن طريق أنظمة الأمن السيبراني. يمكن أن يزيد التعلم الآلي أيضًا من فرص نجاح هجمات الهندسة الاجتماعية ، حيث يتم خداع الأشخاص للكشف عن معلومات حساسة أو القيام بإجراءات محددة مثل المعاملات المالية. 

    بالإضافة إلى ذلك ، يمكن لسلسلة القتل عبر الإنترنت أتمتة بعض العمليات ، بما في ذلك: 

    • مراقبة واسعة النطاق - تقوم الماسحات الضوئية المستقلة بجمع المعلومات من الشبكات المستهدفة ، بما في ذلك الأنظمة والدفاعات وإعدادات البرامج المتصلة بها. 
    • تسليح واسع النطاق - أدوات الذكاء الاصطناعي تحدد نقاط الضعف في البنية التحتية وإنشاء كود للتسلل إلى هذه الثغرات. يمكن أن يستهدف هذا الاكتشاف الآلي أيضًا أنظمة بيئية رقمية أو مؤسسات معينة. 
    • التسليم أو القرصنة - أدوات الذكاء الاصطناعي التي تستخدم الأتمتة لتنفيذ التصيد بالرمح والهندسة الاجتماعية لاستهداف آلاف الأشخاص. 

    اعتبارًا من عام 2023، لا تزال كتابة التعليمات البرمجية المعقدة ضمن نطاق المبرمجين البشريين، لكن الخبراء يعتقدون أنه لن يمر وقت طويل قبل أن تكتسب الآلات هذه المهارة أيضًا. يعد AlphaCode الخاص بـ DeepMind مثالًا بارزًا على أنظمة الذكاء الاصطناعي المتقدمة هذه. يساعد المبرمجين من خلال تحليل كميات كبيرة من التعليمات البرمجية لتعلم الأنماط وإنشاء حلول تعليمات برمجية محسنة

    تداعيات الهجمات الإلكترونية الآلية باستخدام الذكاء الاصطناعي

    قد تشمل الآثار الأوسع نطاقاً للهجمات الإلكترونية الآلية باستخدام الذكاء الاصطناعي ما يلي: 

    • تعمق الشركات ميزانياتها الخاصة بالدفاع الإلكتروني لتطوير حلول إلكترونية متقدمة لاكتشاف الهجمات الإلكترونية الآلية وإيقافها.
    • يدرس مجرمو الإنترنت أساليب تعلم الآلة لإنشاء خوارزميات يمكنها غزو أنظمة الشركات والقطاع العام سرًا.
    • زيادة حوادث الهجمات الإلكترونية التي يتم تنظيمها بشكل جيد وتستهدف العديد من المؤسسات في وقت واحد.
    • تستخدم برامج الذكاء الاصطناعي الهجومية للسيطرة على الأسلحة والآلات العسكرية ومراكز قيادة البنية التحتية.
    • تستخدم برامج الذكاء الاصطناعي الهجومية للتسلل إلى أنظمة الشركة أو تعديلها أو استغلالها لتدمير البنى التحتية العامة والخاصة. 
    • من المحتمل أن تعيد بعض الحكومات تنظيم الدفاعات الرقمية لقطاعها الخاص المحلي تحت سيطرة وحماية وكالات الأمن السيبراني الوطنية الخاصة بها.

    أسئلة للنظر فيها

    • ما هي العواقب المحتملة الأخرى للهجمات الإلكترونية المدعومة بالذكاء الاصطناعي؟
    • وإلا كيف يمكن للشركات الاستعداد لمثل هذه الهجمات؟

    مراجع البصيرة

    تمت الإشارة إلى الروابط الشعبية والمؤسسية التالية من أجل هذه الرؤية:

    مركز الأمن والتكنولوجيا الناشئة أتمتة الهجمات الإلكترونية