Dagens PS

AI-botar lurar opinionsundersökningar: “Ett existentiellt hot”

AI
AI eller människa? Nu är det inte längre helt lätt att avgöra (Foto: Canva)
Matilda Habbe
Matilda Habbe
Uppdaterad: 18 nov. 2025Publicerad: 18 nov. 2025

Det har länge varnats för deepfakes, falska nyheter och AI-genererat innehåll. Och nu kommer nästa chock. 

ANNONS

Mest läst i kategorin

ANNONS

Enligt en ny studie från Dartmouth University kan avancerade AI-verktyg nästan perfekt imitera riktiga människor i opinionsundersökningar online.

“Vi kan inte längre lita på att svaren i undersökningar kommer från riktiga människor”, säger studiens huvudförfattare Sean Westwood till Euronews

Nästan omöjliga att skilja från människor

Den publicerade studien visar att moderna AI-modeller inte bara kan skriva naturliga, mänskliga svar, de kan också manipulera resultaten i stort antal, helt utan att upptäckas.

“De kan efterlikna mänskliga personligheter, undvika nuvarande upptäcktsmetoder och enkelt programmeras för att systematiskt snedvrida resultat i onlineundersökningar”, står det i studien.

Forskarna kallar det en “kritisk sårbarhet i vår datainfrastruktur” och ett “möjligt existentiellt hot mot oövervakad onlineforskning”.

Det handlar alltså inte om några enkla bottar som klickar runt på chans.

Westwood förklarar: “Det här är inte primitiva botar. De tänker igenom varje fråga och agerar som riktiga, noggranna människor, vilket får datan att se helt legitim ut”. 

Läs även: AI tar jobben – här är miljardärens råd till unga. Dagens PS

ANNONS
ANNONS

Senaste nytt

Spela klippet
PS Partner

Efter svaga kvartalet: "Oktober har varit en fantastisk månad"

13 nov. 2025
Ola Skogö - Modulärt byggande för flexibla samhällen
Spela klippet
PS Partner

Därför växer modulärt byggande i Sverige

10 nov. 2025

Så fungerade testet – skrämmande träffsäkert

För att undersöka hur lätt systemen kunde luras skapade Westwood ett eget verktyg, beskrivet som en “autonom syntetisk respondent”, baserat på en instruktion på bara 500 ord.

AI:n fick slumpad demografisk profil med exempelvis kön, ålder, utbildning och inkomst. Sedan simulerade den mänsklig lästid, musrörelser, tangenttryckningar, stavfel och korrigeringar.

Resultatet? I över 43 000 försök lyckades botten lura systemen i 99,8 procent av fallen.

Den svarade dessutom felfritt på logikfrågor och klarade av att passera skydd som reCAPTCHA – ett säkerhetssystem som används på webbplatser för att avgöra om en användare är människa eller bot. Testerna fungerade även när AI:n programmerades på ryska, mandarin och koreanska.

Kan påverka valresultat – till extremt låg kostnad

Forskarna tittade särskilt på amerikanska presidentvalet 2024.

Westwood fann att endast 10-52 falska AI-svar hade kunnat ändra utfallet i sju nationella toppmätningar under den sista kritiska valveckan.

Kostnaden? Så lite som 5 amerikanska cent per bot.

ANNONS

Även forskningen hotas

Men hotet gäller inte enbart politik.

Tusentals akademiska studier baseras på enkätdata från digitala plattformar.

“När undersökningsdata förgiftas av botar kan AI förgifta hela kunskapsekosystemet”, säger Westwood.

“Teknologin finns för att verifiera verkligt mänskligt deltagande; vi behöver bara viljan att genomföra det”, fortsätter han. 

Och uppmaningen är tydlig:

“Om vi agerar nu kan vi bevara både integriteten i opinionsmätningar och det demokratiska ansvarstagande som de möjliggör”. 

Läs också: AI-frossa på börserna: “Kan eskalera”. Realtid

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
Matilda Habbe
Matilda Habbe

Bevakar i huvudsak privatekonomi, pension och bostadsmarknad för Dagens PS. Brinner för att göra svåra ämnen begripliga.

Matilda Habbe
Matilda Habbe

Bevakar i huvudsak privatekonomi, pension och bostadsmarknad för Dagens PS. Brinner för att göra svåra ämnen begripliga.

ANNONS
BLACK WEEKS Spara upp till 54% på Verisure hemlarm

Just nu får du ett riktigt bra pris på Sveriges mest valda hemlarm med brand- och inbrottsskydd. Räkna ut ditt pris och ta del av erbjudandet

Räkna ut ditt pris!
ANNONS
ANNONS

Senaste nytt

ANNONS
ANNONS