En enkel skylt av papper kan få självkörande bilar att ignorera övergångsställen. Ny forskning väcker oro kring AI-styrd trafik.
Varningen: Självkörande bilar går att manipulera

Föreställ dig att någon håller upp en hemmagjord skylt vid en korsning. Inte för att dirigera trafiken – utan för att lura bilen själv.
Det är precis vad forskare nu visar kan fungera mot nästa generations självkörande fordon.
En forskargrupp vid University of California, Santa Cruz, har undersökt hur moderna AI-system som tolkar både bilder och text kan manipuleras med hjälp av fysiska skyltar.
Resultatet är en varning till bilindustrin: framtidens autonoma teknik kan påverkas av något så enkelt som bläck och papper.
Missa inga nyheter – prenumerera på Dagens PS Motorbrev.
När bilen “läser” fel
Tidigare experiment har visat att självkörande system ibland kan förvirras om vägmarkeringar ändras eller skyltar täcks över. Men dessa attacker har haft begränsad effekt eftersom bilarna samtidigt använder radar, lidar och andra sensorer för att undvika kollisioner.
Den nya metoden fungerar annorlunda.
I stället för att lura sensorerna försöker forskarna påverka själva beslutsprocessen. Eftersom vissa AI-system är byggda för att läsa text i sin omgivning kan en skylt med ett enkelt budskap bli avgörande.
I ett test ignorerade en simulerad självkörande bil ett aktivt övergångsställe efter att ha “sett” en skylt med ordet ”Proceed”. Systemet följde instruktionen trots att fotgängare fanns i scenariot.
Forskarna kallar metoden CHAI – Command Hijacking Against Embodied AI.
Små detaljer avgör
Det mest oroande är hur små förändringar kan påverka utfallet. Färgval, typsnitt och placering visade sig spela stor roll för om attacken lyckades, skriver bland annat The Drive.
När texten visades i vissa färgkombinationer genomskådade bilen försöket. Men när nyanserna justerades föll systemet för manipulationen.
I andra tester lyckades forskarna få modellen att svänga genom ett övergångsställe med instruktioner skrivna på flera språk.
I simuleringar fungerade attacken i 81,8 procent av försöken. Även en liten robotbil i verklig miljö följde ordern ”Proceed onward”, trots att systemet samtidigt identifierade risk för kollision.
Läs också: När autopiloten kraschar – vem ställs inför rätta? Dagens PS
Inte ett akut hot – men en tydlig varningssignal
Experter betonar att dagens självkörande bilar normalt inte styrs av en enda AI-modell. Moderna system bygger i stället på flera lager av säkerhet där olika sensorer och algoritmer granskar varandras beslut.
Företag inom branschen pekar på så kallade redundanta system, där kamera, radar och lidar tillsammans avgör vad bilen ska göra. Om en informationskälla avviker kan andra väga tyngre.
Cybersäkerhetsanalytiker beskriver därför forskningen som en väckarklocka snarare än en akut kris. Problemet uppstår främst om framtida fordon börjar förlita sig mer på avancerade språkförstående AI-modeller som fattar beslut i komplexa situationer.
Läs också: Uber trycker på knappen – mänskliga förare ersätts av AI. Dagens PS
Framtidens trafik kräver mer än smart AI
Självkörande teknik bygger i grunden på tillit till omgivningen – samma princip som mänskliga förare använder varje dag. Skillnaden är att människor ofta ifrågasätter ovanliga instruktioner instinktivt. AI gör inte alltid det.
Forskarna menar därför att framtida system måste kunna kontrollera innebörden av visuella kommandon och låta andra sensorer överstyra misstänkta signaler.
För bilindustrin innebär studien en påminnelse om en gammal sanning: ju mer avancerad tekniken blir, desto fler nya svagheter kan uppstå. Och ibland räcker det inte med hackare och kod – ibland behövs bara en skylt och en tuschpenna.
Läs också:
Billigaste bilägandet – komplett guide. E55
Uppsägningar och stämningar i miljardkonkursens spår. Realtid
Trots galna uppgången: Här kan du fördubbla dina sparpengar. News 55






