Cyberbrottslingar tar hjälp av artificiell intelligens för att skapa mer sofistikerade attacker.
Artificiell intelligens förändrar världen – och det gäller även den undre. I takt med att företag och myndigheter använder AI för att effektivisera verksamheten, gör cyberkriminella detsamma för att utveckla mer avancerade och svårupptäckta attacker.
Enligt cybersäkerhetsföretaget Integrity360 används AI idag för att skapa skadlig kod snabbare, samla in information om mål på rekordtid och utforma phishingmejl som är så övertygande att till och med säkerhetsmedvetna personer riskerar att bli lurade.
Skadlig kod som anpassar sig själv
En av de största förändringarna är att AI nu kan hjälpa angripare att automatiskt skriva och förändra skadlig kod. Det innebär att ett virus eller ett intrångsprogram kan se olika ut varje gång det används, vilket gör det svårare för traditionella antivirusprogram att känna igen och stoppa det.
AI kan också själv välja ut vilka system som är mest sårbara och rikta attackerna dit – något som tidigare krävde manuellt arbete. Det gör att angrepp kan skalas upp i enorm omfattning och med stor precision.
Farligare lösenordsfiske
AI har också gjort så kallat phishing – försök att lura användare att lämna ifrån sig inloggningsuppgifter – både vanligare och farligare. Sedan slutet av 2022 har antalet phishingmejl ökat med över 1 200 procent, och attacker som syftar till att stjäla inloggningar har ökat med nästan 1 000 procent, enligt Integrity360.
Det beror på att AI kan skapa e-postmeddelanden som är nästan perfekta: inga stavfel, inga märkliga formuleringar, och ofta med personliga detaljer hämtade från sociala medier eller tidigare läckor. I vissa fall kan AI till och med föra en trovärdig konversation i realtid – som en digital bedragare.
Ett uppmärksammat exempel är attacken mot ett multinationellt företag i Hongkong i februari 2024, där bedragare använde en AI-genererad videokonferens för att lura en ekonomichef att föra över motsvarande 250 miljoner kronor. Alla deltagare i mötet – inklusive företagets “vd” – var deepfakes.
Samma skyddsprinciper gäller
Trots AI:s nya kraft är grundreceptet för säkerhet detsamma: flerfaktorsautentisering, snabba uppdateringar, utbildning av användare och en strikt Zero Trust-strategi.
Dessutom kan företag nu använda AI till sin egen fördel – genom säkerhetsverktyg som upptäcker ovanliga beteenden och mönster innan skadan är skedd.
För som Integrity360 konstaterar: ”AI i sig är inte farligt – det är hur människor väljer att använda det som avgör.”