Автоматизирани кибератаки с помощта на AI: Когато машините станат киберпрестъпници

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

Автоматизирани кибератаки с помощта на AI: Когато машините станат киберпрестъпници

Автоматизирани кибератаки с помощта на AI: Когато машините станат киберпрестъпници

Подзаглавен текст
Силата на изкуствения интелект (AI) и машинното обучение (ML) се експлоатира от хакери, за да направят кибератаките по-ефективни и смъртоносни.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Септември 30, 2022

    Резюме на прозрението

    Изкуственият интелект (AI) и машинното обучение (ML) се използват все повече в киберсигурността, както за защита на системи, така и при извършване на кибератаки. Тяхната способност да се учат от данни и поведение им позволява да идентифицират уязвимостите на системата, но също така затруднява проследяването на източника зад тези алгоритми. Този развиващ се пейзаж на ИИ в киберпрестъпността поражда загриженост сред ИТ експертите, изисква усъвършенствани стратегии за отбрана и може да доведе до значителни промени в начина, по който правителствата и компаниите подхождат към киберсигурността.

    Автоматизирани кибератаки, използващи AI контекст

    Изкуственият интелект и машинното обучение поддържат способността за автоматизиране на почти всички задачи, включително учене от повтарящо се поведение и модели, което прави мощен инструмент за идентифициране на уязвимости в системата. По-важното е, че AI и ML затрудняват определянето на лице или образувание зад алгоритъм.

    През 2022 г., по време на подкомитета по киберсигурност към Сената на въоръжените сили, Ерик Хорвиц, главен научен директор на Microsoft, посочи използването на изкуствен интелект (AI) за автоматизиране на кибератаки като „офанзивен AI“. Той подчерта, че е трудно да се определи дали една кибератака е управлявана от AI. По същия начин това машинно обучение (ML) се използва за подпомагане на кибератаки; ML се използва за научаване на често използвани думи и стратегии за създаване на пароли за по-добро хакване. 

    Проучване на фирмата за киберсигурност Darktrace откри, че екипите за управление на ИТ са все по-загрижени относно потенциалното използване на AI в киберпрестъпленията, като 96 процента от респондентите посочват, че вече проучват възможни решения. Експертите по ИТ сигурност усещат промяна в методите за кибератаки от рансъмуер и фишинг към по-сложен зловреден софтуер, който е труден за откриване и отклоняване. Възможен риск от киберпрестъпления с AI е въвеждането на повредени или манипулирани данни в ML модели.

    Една ML атака може да повлияе на софтуера и други технологии, които в момента се разработват за поддръжка на облачни изчисления и периферен AI. Недостатъчните данни за обучение могат също така да засилят пристрастията на алгоритъма, като например неправилно маркиране на малцинствени групи или повлияване на предсказуемата полиция за насочване към маргинализирани общности. Изкуственият интелект може да въведе фина, но пагубна информация в системите, което може да има дълготрайни последици.

    Разрушително въздействие

    Проучване на изследователи от университета в Джорджтаун относно веригата за кибер убийства (списък със задачи, изпълнявани за стартиране на успешна кибератака) показа, че конкретни офанзивни стратегии могат да се възползват от ML. Тези методи включват spearphishing (имейл измами, насочени към конкретни хора и организации), определяне на слабости в ИТ инфраструктурите, доставяне на зловреден код в мрежите и избягване на откриване от системи за киберсигурност. Машинното обучение може също така да увеличи шансовете за успех на атаките със социално инженерство, при които хората са измамени да разкрият чувствителна информация или да извършат конкретни действия като финансови транзакции. 

    Освен това веригата за кибер убийства може да автоматизира някои процеси, включително: 

    • Обширно наблюдение - автономни скенери, събиращи информация от целевите мрежи, включително техните свързани системи, защити и софтуерни настройки. 
    • Огромно въоръжение - AI инструменти, идентифициращи слабости в инфраструктурата и създаващи код за проникване в тези вратички. Това автоматизирано откриване може също да е насочено към конкретни цифрови екосистеми или организации. 
    • Доставка или хакване - AI инструменти, използващи автоматизация за извършване на фишинг и социално инженерство, насочени към хиляди хора. 

    От 2023 г. писането на сложен код все още е в сферата на човешките програмисти, но експертите смятат, че няма да мине много време преди машините също да придобият това умение. AlphaCode на DeepMind е виден пример за такива усъвършенствани AI системи. Той помага на програмистите, като анализират големи количества код, за да научат модели и да генерират оптимизирани кодови решения

    Последици от автоматизирани кибератаки, използващи AI

    По-широките последици от автоматизираните кибератаки, използващи AI, могат да включват: 

    • Компаниите увеличават своите бюджети за кибер отбрана, за да разработят усъвършенствани кибер решения за откриване и спиране на автоматизирани кибератаки.
    • Киберпрестъпници, изучаващи методи за машинно обучение, за да създадат алгоритми, които могат тайно да нахлуят в корпоративни и публични системи.
    • Увеличени случаи на кибератаки, които са добре оркестрирани и са насочени към няколко организации наведнъж.
    • Офанзивен AI софтуер, използван за завладяване на контрола върху военни оръжия, машини и командни центрове на инфраструктурата.
    • Обиден AI софтуер, използван за проникване, модифициране или експлоатиране на системи на компания за сваляне на обществени и частни инфраструктури. 
    • Някои правителства потенциално реорганизират дигиталната защита на вътрешния си частен сектор под контрола и защитата на съответните национални агенции за киберсигурност.

    Въпроси за разглеждане

    • Какви са другите потенциални последици от кибератаки с AI?
    • Как иначе компаниите могат да се подготвят за подобни атаки?

    Препратки към Insight

    Следните популярни и институционални връзки бяха посочени за тази информация:

    Център за сигурност и нововъзникващи технологии Автоматизиране на кибератаки