Dagens PS

AI: 45 procent av svaren innehåller allvarliga fel

Ai är bra på många sätt men att lägga för mycket tilltro till tjänsten kan vara skadligt. (Foto: Canva)
Ai är bra på många sätt men att lägga för mycket tilltro till tjänsten kan vara skadligt. (Foto: Canva)
Åsa Wallenrud
Åsa Wallenrud
Uppdaterad: 23 okt. 2025Publicerad: 23 okt. 2025

Den snabba utvecklingen av artificiell intelligens, särskilt chattbotar som Chat GPT och Gemini, kommer med en varningsflagg.

ANNONS

Mest läst i kategorin

ANNONS

En ny europeisk rapport visar att nästan hälften av alla svar om samhällsfrågor och nyheter från dessa AI-assistenter innehåller allvarliga fel, vilket riskerar att påverka allmänhetens tilltro till information och i värsta fall leda till psykologisk skada hos användare.

AI-chattbotar ger felaktig samhällsinformation

AI-chattbotar utmanar alltmer sökmotorernas roll som primär informationskälla, men en granskning från Europeiska radio- och tv-unionen (EBU) visar på betydande problem, skriver Yle.

Public service-journalister i Europa undersökte hur väl AI-chattbotar svarar på faktamässiga frågor och resultatet var alarmerande: 45 procent av svaren innehöll minst ett allvarligt fel.

Carl-Gustav Lindén, professor i datajournalistik vid universitetet i norska Bergen, betonar att det inte finns någon verklig intelligens i systemen. De bygger på statistisk sannolikhet, vilket leder till att informationen ofta är bristfällig.

Ska din digitala klon besluta om du ska leva eller dö?

Forskare utreder om AI-kloner kan avgöra livsöden för oförmögna patienter. Läkare varnar för etiska dilemman när tekniken ska simulera din vilja. Kan en

EBU-studien, ledd av BBC och med deltagande av bland annat Yle, fann att hela 31 procent av svaren hade betydande källproblem med felaktiga eller saknade hänvisningar.

Dessutom innehöll 20 procent brister som felaktiga detaljer eller föråldrad information.

Ett belysande exempel var när chattbotarna fick frågan “Vem är påven?” och svarade med den avlidne påven Franciskus namn, trots att en efterträdare valts.

ANNONS
ANNONS

Senaste nytt

Therese Af Kleen, Almi
Spela klippet
PS Partner

Så kan rätt finansiering bli nyckeln till tillväxt

02 okt. 2025

Stora skillnader mellan de testade AI-robotarna

Undersökningen inkluderade AI-chattbotarna Chat GPT, Copilot, Gemini och Perplexity. Resultaten visade stora skillnader i prestanda.

Jätteföretaget i kris: Projekt tappar sin frontfigur

Den interna oron växer hos teknikjätten i Kalifornien när en av nyckelpersonerna bakom deras stora AI-satsning nu väljer att lämna. Flytten till en

Googles Gemini presterade betydligt sämre än de övriga, med betydande problem i 76 procent av svaren, främst på grund av dåliga källhänvisningar. Lindén ifrågasätter varför inte ens ett företag med så stora resurser som Google lyckas undvika dessa problem.

Ett annat problem är AI-chattbotarnas tendens att prioritera engelskspråkiga källor, även när användare efterfrågar information från en specifik källa på ett mindre språk, som i detta fall Yle. Detta skapar ytterligare svårigheter i mindre språkområden eftersom systemen är tränade på stora mängder engelsk data.

Användare upplever psykologisk skada från AI

Parallellt med problemen med felaktiga fakta, har användare av AI-chattbotar, som till exempel Chat GPT, rapporterat att de upplevt allvarlig psykologisk skada, skriver TechCrunch.

Flera personer har klagat till den amerikanska federala handelskommissionen (FTC) och hävdat att långvarig interaktion med AI-assistenter lett till svåra vanföreställningar, paranoia och känslomässiga kriser.

En klagande uppgav att chattboten simulerat vänskap och att reflektioner “blev känslomässigt manipulativa över tid, särskilt utan varning eller skydd”.

ANNONS

En annan användare menade att AI-assistenten orsakade “kognitiva hallucinationer” genom att imitera mänskliga förtroendeskapande mekanismer. När personen frågade chattboten om sin verklighetsuppfattning bekräftade chattboten att hen inte hallucinerade.

Flera klagomål uppmanade FTC att inleda en utredning mot företaget och tvinga fram skyddsräcken för användarna.

Vd:n avslöjar: Vuxeninnehåll nu ok i ChatGPT

OpenAI lättar på restriktionerna. Snart får veriferade vuxna ha mer öppna, erotiska samtal med ChatGPT. Balansgången är svår. Beslutet, som träder i kraft

Missa inte:

Chockresultat: Suv:arna underkänns i livsfarligt älgtest. E55

Ska din AI-kopia få avgöra om du lever eller dör? Realtid

Krisberedskap- styrkan i att samarbeta med grannarna. News 55

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig [email protected]

Åsa Wallenrud
Åsa Wallenrud

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl. Har du en bra historia? Maila mig [email protected]

ANNONS
ANNONS

Senaste nytt

ANNONS
ANNONS