Geautomatiseerde cyberaanvallen met AI: wanneer machines cybercriminelen worden

BEELDKREDIET:
Image credit
iStock

Geautomatiseerde cyberaanvallen met AI: wanneer machines cybercriminelen worden

Geautomatiseerde cyberaanvallen met AI: wanneer machines cybercriminelen worden

Onderkoptekst
De kracht van kunstmatige intelligentie (AI) en machine learning (ML) wordt door hackers misbruikt om cyberaanvallen effectiever en dodelijker te maken.
    • Auteur:
    • auteursnaam
      Quantumrun-prognose
    • 30 september 2022

    Samenvatting inzicht

    Kunstmatige intelligentie (AI) en machine learning (ML) worden steeds vaker gebruikt in de cyberbeveiliging, zowel voor het beschermen van systemen als voor het uitvoeren van cyberaanvallen. Hun vermogen om te leren van gegevens en gedrag stelt hen in staat systeemkwetsbaarheden te identificeren, maar maakt het ook moeilijk om de bron achter deze algoritmen te achterhalen. Dit evoluerende landschap van AI in cybercriminaliteit roept zorgen op bij IT-experts, vereist geavanceerde defensiestrategieën en kan leiden tot aanzienlijke veranderingen in de manier waarop overheden en bedrijven cyberbeveiliging benaderen.

    Geautomatiseerde cyberaanvallen met behulp van AI-context

    Kunstmatige intelligentie en ML behouden de mogelijkheid om bijna alle taken te automatiseren, inclusief het leren van repetitief gedrag en patronen, waardoor ze een krachtig hulpmiddel vormen om kwetsbaarheden in een systeem te identificeren. Belangrijker nog is dat AI en ML het een uitdaging maken om een ​​persoon of entiteit achter een algoritme te identificeren.

    In 2022 verwees Eric Horvitz, Chief Scientific Officer van Microsoft, tijdens de Amerikaanse Senaat Armed Services Subcommittee on Cybersecurity naar het gebruik van kunstmatige intelligentie (AI) om cyberaanvallen te automatiseren als ‘offensieve AI’. Hij benadrukte dat het moeilijk is om te bepalen of een cyberaanval AI-gestuurd is. Op dezelfde manier wordt machine learning (ML) gebruikt om cyberaanvallen te ondersteunen; ML wordt gebruikt om veelgebruikte woorden en strategieën te leren bij het maken van wachtwoorden om ze beter te kunnen hacken. 

    Uit een onderzoek van het cyberbeveiligingsbedrijf Darktrace bleek dat IT-managementteams zich steeds meer zorgen maken over het potentiële gebruik van AI bij cybercriminaliteit, waarbij 96 procent van de respondenten aangeeft dat ze al mogelijke oplossingen onderzoeken. IT-beveiligingsexperts voelen een verschuiving in cyberaanvalmethoden van ransomware en phishing naar complexere malware die moeilijk te detecteren en af ​​te weren is. Een mogelijk risico van cybercriminaliteit op basis van AI is de introductie van beschadigde of gemanipuleerde gegevens in ML-modellen.

    Een ML-aanval kan gevolgen hebben voor software en andere technologieën die momenteel worden ontwikkeld ter ondersteuning van cloud computing en edge AI. Onvoldoende trainingsgegevens kunnen ook algoritmevooroordelen versterken, zoals het onjuist taggen van minderheidsgroepen of het beïnvloeden van voorspellend politiewerk om gemarginaliseerde gemeenschappen te targeten. Kunstmatige intelligentie kan subtiele maar rampzalige informatie in systemen introduceren, wat langdurige gevolgen kan hebben.

    Disruptieve impact

    Een onderzoek door Georgetown University-onderzoekers naar de cyberkill-keten (een checklist van taken die worden uitgevoerd om een ​​succesvolle cyberaanval te lanceren) toonde aan dat specifieke offensieve strategieën baat zouden kunnen hebben bij ML. Deze methoden omvatten spearphishing (e-mailzwendel gericht op specifieke mensen en organisaties), het opsporen van zwakke punten in IT-infrastructuren, het leveren van kwaadaardige code aan netwerken en het vermijden van detectie door cyberbeveiligingssystemen. Machine learning kan ook de kans vergroten dat social engineering-aanvallen slagen, waarbij mensen worden misleid om gevoelige informatie te onthullen of specifieke acties uit te voeren, zoals financiële transacties. 

    Bovendien kan de cyberkill-keten sommige processen automatiseren, waaronder: 

    • Uitgebreide bewaking - autonome scanners die informatie verzamelen van doelnetwerken, inclusief hun aangesloten systemen, verdedigingen en software-instellingen. 
    • Uitgebreide bewapening - AI-tools die zwakke punten in de infrastructuur identificeren en code maken om in deze mazen te infiltreren. Deze geautomatiseerde detectie kan zich ook richten op specifieke digitale ecosystemen of organisaties. 
    • Levering of hacking - AI-tools die automatisering gebruiken om spearphishing en social engineering uit te voeren om duizenden mensen te targeten. 

    Anno 2023 behoort het schrijven van complexe code nog steeds tot het domein van menselijke programmeurs, maar experts zijn van mening dat het niet lang zal duren voordat machines deze vaardigheid ook verwerven. DeepMind's AlphaCode is een prominent voorbeeld van dergelijke geavanceerde AI-systemen. Het helpt programmeurs door grote hoeveelheden code te analyseren om patronen te leren en geoptimaliseerde codeoplossingen te genereren

    Gevolgen van geautomatiseerde cyberaanvallen met AI

    Bredere implicaties van geautomatiseerde cyberaanvallen met behulp van AI kunnen zijn: 

    • Bedrijven verdiepen hun budget voor cyberdefensie om geavanceerde cyberoplossingen te ontwikkelen om geautomatiseerde cyberaanvallen te detecteren en te stoppen.
    • Cybercriminelen bestuderen ML-methoden om algoritmen te maken die in het geheim systemen van bedrijven en de publieke sector kunnen binnendringen.
    • Verhoogde incidenten van cyberaanvallen die goed georkestreerd zijn en gericht zijn op meerdere organisaties tegelijk.
    • Aanstootgevende AI-software die wordt gebruikt om controle te krijgen over militaire wapens, machines en commandocentra voor infrastructuur.
    • Aanstootgevende AI-software die wordt gebruikt om de systemen van een bedrijf te infiltreren, aan te passen of te exploiteren om openbare en particuliere infrastructuren uit te schakelen. 
    • Sommige regeringen reorganiseren mogelijk de digitale verdediging van hun binnenlandse particuliere sector onder controle en bescherming van hun respectieve nationale cyberbeveiligingsinstanties.

    Vragen om te overwegen

    • Wat zijn de andere mogelijke gevolgen van cyberaanvallen op basis van AI?
    • Hoe kunnen bedrijven zich anders voorbereiden op dergelijke aanvallen?

    Insight-referenties

    Voor dit inzicht werd verwezen naar de volgende populaire en institutionele links:

    Centrum voor beveiliging en opkomende technologie Cyberaanvallen automatiseren