Dagens PS

AI-botar lurar opinionsundersökningar: “Ett existentiellt hot”

AI
AI eller människa? Nu är det inte längre helt lätt att avgöra (Foto: Canva)

Det har länge varnats för deepfakes, falska nyheter och AI-genererat innehåll. Och nu kommer nästa chock. 

Enligt en ny studie från Dartmouth University kan avancerade AI-verktyg nästan perfekt imitera riktiga människor i opinionsundersökningar online.

”Vi kan inte längre lita på att svaren i undersökningar kommer från riktiga människor”, säger studiens huvudförfattare Sean Westwood till Euronews

Nästan omöjliga att skilja från människor

Den publicerade studien visar att moderna AI-modeller inte bara kan skriva naturliga, mänskliga svar, de kan också manipulera resultaten i stort antal, helt utan att upptäckas.

”De kan efterlikna mänskliga personligheter, undvika nuvarande upptäcktsmetoder och enkelt programmeras för att systematiskt snedvrida resultat i onlineundersökningar”, står det i studien.

Forskarna kallar det en ”kritisk sårbarhet i vår datainfrastruktur” och ett ”möjligt existentiellt hot mot oövervakad onlineforskning”.

Det handlar alltså inte om några enkla bottar som klickar runt på chans.

Westwood förklarar: ”Det här är inte primitiva botar. De tänker igenom varje fråga och agerar som riktiga, noggranna människor, vilket får datan att se helt legitim ut”. 

Läs även: AI tar jobben – här är miljardärens råd till unga. Dagens PS

Så fungerade testet – skrämmande träffsäkert

För att undersöka hur lätt systemen kunde luras skapade Westwood ett eget verktyg, beskrivet som en “autonom syntetisk respondent”, baserat på en instruktion på bara 500 ord.

AI:n fick slumpad demografisk profil med exempelvis kön, ålder, utbildning och inkomst. Sedan simulerade den mänsklig lästid, musrörelser, tangenttryckningar, stavfel och korrigeringar.

Resultatet? I över 43 000 försök lyckades botten lura systemen i 99,8 procent av fallen.

Den svarade dessutom felfritt på logikfrågor och klarade av att passera skydd som reCAPTCHA – ett säkerhetssystem som används på webbplatser för att avgöra om en användare är människa eller bot. Testerna fungerade även när AI:n programmerades på ryska, mandarin och koreanska.

Kan påverka valresultat – till extremt låg kostnad

Forskarna tittade särskilt på amerikanska presidentvalet 2024.

Westwood fann att endast 10-52 falska AI-svar hade kunnat ändra utfallet i sju nationella toppmätningar under den sista kritiska valveckan.

Kostnaden? Så lite som 5 amerikanska cent per bot.

Även forskningen hotas

Men hotet gäller inte enbart politik.

Tusentals akademiska studier baseras på enkätdata från digitala plattformar.

”När undersökningsdata förgiftas av botar kan AI förgifta hela kunskapsekosystemet”, säger Westwood.

”Teknologin finns för att verifiera verkligt mänskligt deltagande; vi behöver bara viljan att genomföra det”, fortsätter han. 

Och uppmaningen är tydlig:

”Om vi agerar nu kan vi bevara både integriteten i opinionsmätningar och det demokratiska ansvarstagande som de möjliggör”. 

Läs också: AI-frossa på börserna: “Kan eskalera”. Realtid

Matilda Habbe

Bevakar i huvudsak privatekonomi, pension och bostadsmarknad för Dagens PS. Brinner för att göra svåra ämnen begripliga.

Matilda Habbe

Bevakar i huvudsak privatekonomi, pension och bostadsmarknad för Dagens PS. Brinner för att göra svåra ämnen begripliga.