Det har länge varnats för deepfakes, falska nyheter och AI-genererat innehåll. Och nu kommer nästa chock.
AI-botar lurar opinionsundersökningar: “Ett existentiellt hot”


Mest läst i kategorin
Enligt en ny studie från Dartmouth University kan avancerade AI-verktyg nästan perfekt imitera riktiga människor i opinionsundersökningar online.
“Vi kan inte längre lita på att svaren i undersökningar kommer från riktiga människor”, säger studiens huvudförfattare Sean Westwood till Euronews.
Nästan omöjliga att skilja från människor
Den publicerade studien visar att moderna AI-modeller inte bara kan skriva naturliga, mänskliga svar, de kan också manipulera resultaten i stort antal, helt utan att upptäckas.
“De kan efterlikna mänskliga personligheter, undvika nuvarande upptäcktsmetoder och enkelt programmeras för att systematiskt snedvrida resultat i onlineundersökningar”, står det i studien.
Forskarna kallar det en “kritisk sårbarhet i vår datainfrastruktur” och ett “möjligt existentiellt hot mot oövervakad onlineforskning”.
Det handlar alltså inte om några enkla bottar som klickar runt på chans.
Westwood förklarar: “Det här är inte primitiva botar. De tänker igenom varje fråga och agerar som riktiga, noggranna människor, vilket får datan att se helt legitim ut”.
Läs även: AI tar jobben – här är miljardärens råd till unga. Dagens PS
Senaste nytt
Så fungerade testet – skrämmande träffsäkert
För att undersöka hur lätt systemen kunde luras skapade Westwood ett eget verktyg, beskrivet som en “autonom syntetisk respondent”, baserat på en instruktion på bara 500 ord.
AI:n fick slumpad demografisk profil med exempelvis kön, ålder, utbildning och inkomst. Sedan simulerade den mänsklig lästid, musrörelser, tangenttryckningar, stavfel och korrigeringar.
Resultatet? I över 43 000 försök lyckades botten lura systemen i 99,8 procent av fallen.
Den svarade dessutom felfritt på logikfrågor och klarade av att passera skydd som reCAPTCHA – ett säkerhetssystem som används på webbplatser för att avgöra om en användare är människa eller bot. Testerna fungerade även när AI:n programmerades på ryska, mandarin och koreanska.
Kan påverka valresultat – till extremt låg kostnad
Forskarna tittade särskilt på amerikanska presidentvalet 2024.
Westwood fann att endast 10-52 falska AI-svar hade kunnat ändra utfallet i sju nationella toppmätningar under den sista kritiska valveckan.
Kostnaden? Så lite som 5 amerikanska cent per bot.
Även forskningen hotas
Men hotet gäller inte enbart politik.
Tusentals akademiska studier baseras på enkätdata från digitala plattformar.
“När undersökningsdata förgiftas av botar kan AI förgifta hela kunskapsekosystemet”, säger Westwood.
“Teknologin finns för att verifiera verkligt mänskligt deltagande; vi behöver bara viljan att genomföra det”, fortsätter han.
Och uppmaningen är tydlig:
“Om vi agerar nu kan vi bevara både integriteten i opinionsmätningar och det demokratiska ansvarstagande som de möjliggör”.
Läs också: AI-frossa på börserna: “Kan eskalera”. Realtid

Bevakar i huvudsak privatekonomi, pension och bostadsmarknad för Dagens PS. Brinner för att göra svåra ämnen begripliga.

Bevakar i huvudsak privatekonomi, pension och bostadsmarknad för Dagens PS. Brinner för att göra svåra ämnen begripliga.

Just nu får du ett riktigt bra pris på Sveriges mest valda hemlarm med brand- och inbrottsskydd. Räkna ut ditt pris och ta del av erbjudandet












