Artificiell intelligens har på kort tid gått från science fiction till vardag. Vi använder den för att skriva texter, analysera data och skapa bilder. Men i samma takt som tekniken ger oss nya möjligheter öppnas också dörrar för kriminella. Och de har redan börjat gå in.
Från smart assistent till smart bedragare
AI kan idag tala med oss, härma våra röster och skapa videoklipp där människor säger saker de aldrig har sagt. Det som för några år sedan kändes som specialeffekter från Hollywood är nu tillgängligt för vem som helst med en dator och en internetuppkoppling.
Resultatet? Företag världen över har redan blivit lurade på mångmiljonbelopp.
Ett brittiskt ingenjörsföretag har t.ex. blivit offer för ett deepfake-bedrägeri där bedragare imiterade ledningens ansikten och röster i ett digitalt möte. Personalen trodde de pratade med sina chefer – och skickade iväg 20 miljoner pund. Och vi ser liknande försök även närmare geografiskt.
Så kan en AI-attack gå till
Föreställ dig en AI-agent utan spärrar, ungefär som en digital assistent som gör allt du ber den om – även sådant som är skadligt. En sådan agent kan:
- läsa av sociala medier för att kartlägga ett företag,
- skriva personliga mejl som ser ut att komma från kollegor,
- föra en konversation med offret tills det avslöjar känslig information,
- skicka nya, ännu mer övertygande meddelanden om det första inte lyckas.
Och viktigast: den kan göra detta mot hundratals eller tusentals mål samtidigt, utan att tröttna.
När AI blir en hackare
Men riskerna slutar inte vid falska mejl och videokonferenser. En AI-agent kan också användas för mer tekniskt avancerade intrång.
Tänk dig en agent som systematiskt:
- scannar ett företags nätverk efter öppna portar och tjänster,
- matchar dessa mot kända sårbarheter i publika databaser,
- skriver exploiteringskod för att testa intrång,
- och automatiskt anpassar sig om det första försöket misslyckas.
Det innebär att en AI i praktiken kan göra det som tidigare krävde ett helt team av erfarna hackare – men snabbare, tystare och i mycket större skala.
Och på mörka forum finns redan verktyg som säljs för detta ändamål. Efter WormGPT och FraudGPT har nya namn som WolfGPT, GhostGPT och EvilGPT dykt upp, ofta marknadsförda som prenumerationstjänster. De lovar allt från färdiga phishingmallar till automatiserad sårbarhetsanalys. Men lika ofta rör det sig om jailbreakade versioner av öppna modeller, vilket gör att hotet inte alltid är en ”ny modell” utan att existerande AI-verktyg utnyttjas på farliga sätt.
Europol har i sina senaste hotrapporter varnat för att AI nu accelererar organiserad brottslighet i Europa – med mer skalbara bedrägerier, syntetiska imitationer och tekniska attacker som följd.
Varför det här är nytt
Tidigare krävdes det teknisk expertis, mycket tid och ofta ett helt team för att genomföra avancerade cyberattacker. Med AI kan även en ensam person plötsligt driva kampanjer som är svåra att skilja från äkta kommunikation – eller låta en agent sköta intrång på egen hand.
Attackerna blir både mer skalbara och mer personligt anpassade, vilket gör dem svårare att försvara sig mot.
Den mänskliga faktorn
Det största hotet är inte alltid själva tekniken, utan hur vi människor reagerar på den. När vi möter ett välformulerat mejl eller en röst som låter precis som vår chef är det lätt att gå i fällan. Vi litar på det vi ser och hör. Och just den tilliten är det AI utnyttjar.
Hur vi kan försvara oss
Det behövs tekniska lösningar – även här behöver vi AI som hjälper oss att skydda oss. T.ex. AI som upptäcker deepfakes eller onormala mönster i mejltrafik. Men lika viktigt är sunt förnuft och rutiner:
- att alltid dubbelkolla ovanliga förfrågningar,
- att införa tvåstegsverifiering vid ekonomiska beslut,
- att våga ifrågasätta även när något ser ”äkta” ut.
AI är ett kraftfullt verktyg, på gott och ont. Frågan är inte om tekniken används av bedragare, utan hur väl vi kan stå emot när den gör det.
Fakta: Vad är ”dark LLM”?
Dark LLM är ett samlingsnamn för språkmodeller som används eller marknadsförs för kriminella syften.
- De mest kända exemplen är WormGPT och FraudGPT, som säljs på underjordiska forum för att skriva phishingmejl, generera skadlig kod eller skapa falska webbsidor.
- Nyare namn är WolfGPT, GhostGPT och EvilGPT, ofta paketerade som prenumerationstjänster.
Många av dessa är i praktiken modifierade versioner av öppna modeller, eller rena bluffar. Men hotbilden de representerar är reell: att AI gör avancerade attacker billigare, enklare och mer skalbara.
Är du förberedd på det som komma ska?