Автоматизовані кібератаки з використанням ШІ: коли машини стають кіберзлочинцями

КРЕДИТ ЗОБРАЖЕННЯ:
Кредит зображення
iStock

Автоматизовані кібератаки з використанням ШІ: коли машини стають кіберзлочинцями

Автоматизовані кібератаки з використанням ШІ: коли машини стають кіберзлочинцями

Текст підзаголовка
Хакери використовують потужність штучного інтелекту (AI) і машинного навчання (ML), щоб зробити кібератаки більш ефективними та смертоносними.
    • Автор:
    • ім'я автора
      Quantumrun Foresight
    • Вересень 30, 2022

    Короткий огляд

    Штучний інтелект (AI) і машинне навчання (ML) все частіше використовуються в кібербезпеці як для захисту систем, так і для здійснення кібератак. Їхня здатність навчатися на основі даних і поведінки дозволяє їм виявляти вразливі місця системи, але також ускладнює відстеження джерела, що стоїть за цими алгоритмами. Цей розвиток штучного інтелекту в кіберзлочинності викликає занепокоєння серед ІТ-експертів, вимагає передових стратегій захисту та може призвести до значних змін у тому, як уряди та компанії підходять до кібербезпеки.

    Автоматизовані кібератаки з використанням контексту ШІ

    Штучний інтелект і ML зберігають здатність автоматизувати майже всі завдання, включаючи навчання на повторюваній поведінці та шаблонах, що робить їх потужним інструментом для виявлення вразливостей у системі. Що ще важливіше, штучний інтелект та машинне навчання ускладнюють визначення людини чи організації, що стоїть за алгоритмом.

    У 2022 році під час засідання підкомітету збройних сил Сенату США з кібербезпеки Ерік Горвіц, головний науковий співробітник Microsoft, назвав використання штучного інтелекту (ШІ) для автоматизації кібератак «наступальним ШІ». Він підкреслив, що важко визначити, чи є кібератака за допомогою ШІ. Подібним чином машинне навчання (ML) використовується для допомоги в кібератаках; ML використовується для вивчення поширених слів і стратегій створення паролів для кращого їх злому. 

    Опитування, проведене компанією з кібербезпеки Darktrace, виявило, що команди управління ІТ дедалі більше стурбовані потенційним використанням штучного інтелекту в кіберзлочинах, причому 96 відсотків респондентів вказали, що вони вже досліджують можливі рішення. Експерти з ІТ-безпеки відчувають зміну методів кібератак від програм-вимагачів і фішингу до більш складних шкідливих програм, які важко виявити та відвернути. Можливий ризик кіберзлочинності з підтримкою штучного інтелекту полягає в упровадженні пошкоджених або маніпуляційних даних у моделі ML.

    Атака машинного навчання може вплинути на програмне забезпечення та інші технології, які зараз розробляються для підтримки хмарних обчислень і периферійного штучного інтелекту. Недостатні навчальні дані також можуть підсилити упередження алгоритму, такі як неправильне позначення груп меншин або вплинути на інтелектуальну поліцію для націлювання на маргіналізовані спільноти. Штучний інтелект може вводити в системи тонку, але згубну інформацію, що може мати довготривалі наслідки.

    Руйнівний вплив

    Дослідження дослідників Джорджтаунського університету щодо ланцюжка кіберубивств (перелік завдань, які виконуються для успішної кібератаки) показало, що ML може отримати користь від конкретних наступальних стратегій. Ці методи включають підводне фішинг (шахрайство електронною поштою, спрямоване на конкретних людей і організації), визначення слабких місць в ІТ-інфраструктурі, доставку шкідливого коду в мережі та уникнення виявлення системами кібербезпеки. Машинне навчання також може збільшити ймовірність успіху атак соціальної інженерії, коли людей обманом змушують розкрити конфіденційну інформацію або виконати певні дії, як-от фінансові операції. 

    Крім того, ланцюжок кіберзнищення може автоматизувати деякі процеси, зокрема: 

    • Широке спостереження – автономні сканери збирають інформацію з цільових мереж, включаючи підключені системи, засоби захисту та налаштування програмного забезпечення. 
    • Масштабна вепонізація — інструменти ШІ виявляють слабкі місця в інфраструктурі та створюють код для проникнення в ці лазівки. Це автоматичне виявлення також може бути націлено на певні цифрові екосистеми чи організації. 
    • Доставка або злом — інструменти штучного інтелекту, які використовують автоматизацію для здійснення підводного фішингу та соціальної інженерії для тисяч людей. 

    Станом на 2023 рік написання складного коду все ще входить у сферу діяльності програмістів-людей, але експерти вважають, що невдовзі й машини оволодіють цим навиком. AlphaCode від DeepMind є яскравим прикладом таких передових систем ШІ. Він допомагає програмістам, аналізуючи великі обсяги коду для вивчення шаблонів і генерації оптимізованих кодових рішень​

    Наслідки автоматизованих кібератак з використанням ШІ

    Більш широкі наслідки автоматизованих кібератак з використанням ШІ можуть включати: 

    • Компанії збільшують свої бюджети на кіберзахист для розробки передових кіберрішень для виявлення та припинення автоматизованих кібератак.
    • Кіберзлочинці вивчають методи ML для створення алгоритмів, які можуть таємно вторгатися в корпоративні та державні системи.
    • Збільшення кількості добре організованих кібератак, націлених на кілька організацій одночасно.
    • Наступальне програмне забезпечення ШІ, яке використовується для захоплення контролю над військовою зброєю, машинами та командними центрами інфраструктури.
    • Наступальне програмне забезпечення штучного інтелекту, яке використовується для проникнення, модифікації або використання систем компанії для знищення державних і приватних інфраструктур. 
    • Деякі уряди потенційно реорганізують цифровий захист свого національного приватного сектора під контролем і захистом своїх відповідних національних агентств з кібербезпеки.

    Питання для розгляду

    • Які інші потенційні наслідки кібератак з підтримкою ШІ?
    • Як ще компаніям підготуватися до таких атак?

    Посилання на Insight

    Для цієї інформації використовувалися такі популярні та інституційні посилання:

    Центр безпеки та нових технологій Автоматизація кібератак