Dagens PS

Så säkrar du AI mot ”hallucinationer”

Artificiell intelligens är så klart vanligt men det finns öven andra enhörningar. (Foto: Philip Oroni, Unsplash)
Artificiell intelligens riskerar att ge dig felaktiga svar om du inte vet hur du ska använda verktygen (Foto: Philip Oroni, Unsplash)
Mikael Gullström
Mikael Gullström
Uppdaterad: 04 jan. 2026Publicerad: 04 jan. 2026

Företag, jurister och användare står inför en växande risk när artificiell intelligens genererar felaktig eller påhittad information. Från advokatbyråer som citerat icke-existerande rättsfall till personskade- och förtalsmål mot teknikjättar som Google.

ANNONS

Mest läst i kategorin

ANNONS

Felen kallas i branschen “hallucinationer” och kan få direkta effekter på rättssäkerheten för företag och privatpersoner.

Advokater erkänner AI-bluff i rätten

I en uppmärksammad rättstvist mot detaljhandelsjätten Walmart har advokater tvingats erkänna att de använt AI-verktyg som hallucinerat fram referenser till tidigare rättsfall.

Enligt en rapport från Reuters erkände juristerna att de citerade domar som i själva verket aldrig har existerat.

Detta är inte ett isolerat fall utan speglar en växande trend där juridiska professioner i allt högre grad förlitar sig på generativ AI utan tillräcklig kontroll.

Att dessa felaktigheter sprider sig i domstolarna bekräftas även i en analys hos Realtid, där det konstateras att de påhittade referenserna utgör ett direkt hot mot rättssäkerheten.

När AI-modeller bygger argument på fiktiva prejudikat riskerar det att leda till felaktiga domslut och dryga sanktioner för de inblandade juristerna.

ANNONS

Senaste nytt

Spela klippet
PS Partner

Så investerar du enkelt i private equity

04 dec. 2025
Spela klippet
PS Partner

Historiskt tredje kvartal för det noterade guldbolaget: Akobo Minerals tar klivet in i lönsamhet

01 dec. 2025
Spela klippet
PS Partner

Så investerar du enkelt i private equity

29 nov. 2025

Google stäms för förtal

Samtidigt möter sökjätten Google ett ökande antal stämningar kopplade till hur deras AI-tjänster beskriver privatpersoner och offentliga aktörer.

ANNONS

I en artikel från Yahoo News framgår det att bolaget står inför rättsliga påföljder efter att AI-genererade sammanfattningar innehållit ärekränkande och felaktiga uppgifter.

Riskerna för den personliga integriteten och ryktet understryks ytterligare av att en konservativ aktivist valt att stämma Google.

Enligt nyhetskanalen Al Jazeera rör tvisten AI-genererade uttalanden som påstås vara djupt missvisande och skadliga för målsägandens anseende.

Dessa fall visar på den osäkerhet som uppstår när AI-verktyg används för att sammanställa information om individer utan en mänsklig faktagranskning i sista ledet.

Ekonomiska risker och ”skandaler”

Det är inte bara enskilda individer som drabbas. Även stora konsultbolag och analysföretag har hamnat i blåsväder när tekniken sviker.

I en genomgång hos Yabble beskrivs hur felaktig information i en rapport kopplad till Deloitte skapat stora rubriker. Det visar på farorna med att använda generella AI-modeller utan tillräcklig mänsklig översyn eller specialanpassade system.

Denna problematik utgör en fundamental utmaning för de bolag som utvecklar tekniken. Som framgår i en artikel i EFN är hallucinationerna en av de största trösklarna för AI-bolagens framtida tillväxt.

Om användarna inte kan lita på att svaren är korrekta minskar teknikens ekonomiska värde drastiskt i branscher som finans och medicin.

ANNONS

Så styr du AI mot kvalitetssäkrade fakta

För att undvika att AI-modeller ”tänker fritt” och hittar på information finns det flera strategier som både företag och privatpersoner bör använda.

Enligt analysen av Handelsbankens kundtidning EFN handlar en av de mest effektiva metoderna om att implementera system som RAG (Retrieval-Augmented Generation) och RIG (Retrieval-Interpreted Generation).

Metoder för att undvika hallucinationer

RAG (retrieval-augmented generation)
Kopplar ihop stora språkmodeller med externa fakta. I stället för att bara använda sina träningsdata hämtar modellen först information från en databas och bygger svaret utifrån både det materialet och sin egen språkförmåga. Målet är att minska hallucinationer och ge mer korrekta svar.

RIG (retrieval interleaved generation)
RIG går ett steg längre. Här vägs den hämtade informationen in redan när modellen börjar formulera sitt svar, i stället för att sökning och generering sker var för sig. Det ska ge ännu färre fel och mer precisa svar i frågor som kräver hög noggrannhet.

Dessa tekniker tvingar modellen att först hämta information från en specifik och verifierad källa, snarare än att enbart förlita sig på sin egen förtränade databas.

Ytterligare sätt att öka säkerheten inkluderar:

  • Användning av domänspecifika verktyg: Istället för breda, generella modeller bör man välja AI som är byggd för specifika ändamål med inbyggda spärrar för integritet och datafel.
  • Justering av parametrar: Genom att sänka modellens ”temperatur”, en inställning som styr slumpmässighet, kan man enligt guiden från Skolagent göra svaren mer faktabaserade och mindre kreativa.
  • Tydlig kontextmatning: Genom att själv tillhandahålla det material som AI:n ska analysera (exempelvis ladda upp de dokument som ska sammanfattas) minskar man utrymmet för modellen att fylla i luckor med eget påhittat innehåll.

Trots dessa framsteg påminner experterna om att hallucinationer fortfarande kan förekomma.

Slutsatsen är tydlig: all information som genereras av AI måste i slutändan verifieras av en människa för att säkra att de juridiska och ekonomiska riskerna minimeras.

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
Mikael Gullström
Mikael Gullström

Chefredaktör och ansvarig utgivare för Dagens PS och Realtid. Bevakar främst politik, världshändelser och makro. Har drivit Dagens PS sedan 2018.

Mikael Gullström
Mikael Gullström

Chefredaktör och ansvarig utgivare för Dagens PS och Realtid. Bevakar främst politik, världshändelser och makro. Har drivit Dagens PS sedan 2018.

ANNONS
Lagerrensning pågår nu! →

Kjell & Company - Kunskap och tillbehör till hemelektronik. Kjell & Company är ett av Sveriges starkaste varumärken och en ledande aktör inom svensk detaljhandel. Bolaget har mer än 30 års erfarenhet av hemelektronik i kombination med gedigen kunskap och personlig rådgivning. Just nu pågår lagerrensning med mängder av bra deals.

Fynda nu
ANNONS
ANNONS

Senaste nytt

ANNONS
ANNONS