Hackare har hittat ett nytt sätt att lura artificiell intelligens. Nu mobiliserar techjättarna för att stoppa attackerna.
AI:s nya säkerhetshål oroar techjättarna


Mest läst i kategorin
Google DeepMind, Anthropic, OpenAI och Microsoft försöker täppa till ett växande säkerhetshål i sina språkmodeller.
Vill du få dagens viktigaste nyheter direkt i inkorgen?
Den nya attackformen kallas indirect prompt injection, en indirekt promptinjektion.
Enkelt förklarat handlar det om att gömma skadliga instruktioner i till exempel webbsidor eller mejl vilket i slutändan leder till att AI-modeller avslöjar information de inte borde.
”AI används just nu av cyberaktörer i varje led av en attack”, säger Jacob Klein, som leder hotanalysteamet på Anthropic, till Financial Times.
Problemet är att stora språkmodeller, så kallade LLM:er, är byggda för att lyda instruktioner. De har svårt att skilja mellan legitim input och skadlig kod. Det är också orsaken till varför vissa användare lyckas kringgå skydden i modellerna genom så kallad jailbreaking.
AI mot AI
För att skydda sig använder techjättarna en rad olika metoder. Anthropic samarbetar med externa testare och låter sina egna AI-system identifiera misstänkta attacker.
“När vi hittar ett skadligt användningsområde kan vi, beroende på hur säkra vi är, automatiskt sätta in en åtgärd – eller skicka det vidare för manuell granskning”, säger Klein.
Läs mer:
Därför behöver ni ett nytt kodord i familjen. E55
Google DeepMind har valt en annan strategi. Deras forskare utsätter ständigt den egna modellen Gemini för realistiska attacker, detta för att upptäcka svagheter innan hackarna gör det.
Senaste nytt
En växande risk
I maj varnade Storbritanniens nationella cybersäkerhetsmyndighet (NCSC) för att dessa injektionsattacker utgör ett ökande hot. Miljontals företag och privatpersoner som använder chattbotar och AI-verktyg riskerar att drabbas av avancerade nätfiskeattacker och bedrägerier.
Och prompt injection är inte det enda problemet.
Forskningsrapporter från Anthropic, Storbritanniens AI Security Institute och Alan Turing Institute visar att det även är lättare än man trott att genomföra så kallade data poisoning-attacker, där angripare smyger in skadligt material i AI-modellernas egen träningsdata.
Hackarna ligger steget före
Samtidigt som AI-företagen försöker stärka skydden växer hotet i rasande fart. AI används redan för att skriva skadlig kod, skapa realistiska deepfakes och automatisera bedrägerier.
“Försvarssystemen lär sig snabbare, anpassar sig snabbare och går från att vara reaktiva till att bli proaktiva”, säger Ann Johnson, vice vd på Microsoft och ansvarig för cybersäkerhet.
Men trots framstegen ligger angriparna ofta ett steg före. En studie från MIT visar att 80 procent av de granskade ransomware-attackerna använde AI. Under 2024 ökade antalet phishing-bedrägerier och deepfake-relaterade brott med 60 procent.

”Det krävs inte mycket för att bli kriminell”
AI-verktyg gör det dessutom enklare för amatörer att bli hackare.
Jake Moore, global cybersäkerhetsrådgivare på ESET, säger att språkmodeller nu kan generera ny, oupptäckt skadlig kod på några få sekunder.
Samma teknik används för att kartlägga offer – samla information från sociala medier, bilder och ljudklipp – för att genomföra mer trovärdiga bedrägerier.
”Det krävs inte mycket för att bli kriminell nuförtiden”, säger Paul Fabara, säkerhetschef på Visa. ”Du skaffar en laptop, betalar 15 dollar för att ladda ner en billig piratkopierad version av generativ AI på dark web och så är du igång”.

Bevakar i huvudsak privatekonomi, pension och bostadsmarknad för Dagens PS. Brinner för att göra svåra ämnen begripliga.

Bevakar i huvudsak privatekonomi, pension och bostadsmarknad för Dagens PS. Brinner för att göra svåra ämnen begripliga.

Elektrifiera vardagen med upp till 12 mils färd helt på el. Välj en SWE Edition fullpackad med utrustning till ett förmånligt pris och lågt förmånsvärde.














