Företag, jurister och användare står inför en växande risk när artificiell intelligens genererar felaktig eller påhittad information. Från advokatbyråer som citerat icke-existerande rättsfall till personskade- och förtalsmål mot teknikjättar som Google.
Så säkrar du AI mot ”hallucinationer”


Mest läst i kategorin
Felen kallas i branschen “hallucinationer” och kan få direkta effekter på rättssäkerheten för företag och privatpersoner.
Advokater erkänner AI-bluff i rätten
I en uppmärksammad rättstvist mot detaljhandelsjätten Walmart har advokater tvingats erkänna att de använt AI-verktyg som hallucinerat fram referenser till tidigare rättsfall.
Enligt en rapport från Reuters erkände juristerna att de citerade domar som i själva verket aldrig har existerat.
Detta är inte ett isolerat fall utan speglar en växande trend där juridiska professioner i allt högre grad förlitar sig på generativ AI utan tillräcklig kontroll.
Att dessa felaktigheter sprider sig i domstolarna bekräftas även i en analys hos Realtid, där det konstateras att de påhittade referenserna utgör ett direkt hot mot rättssäkerheten.
När AI-modeller bygger argument på fiktiva prejudikat riskerar det att leda till felaktiga domslut och dryga sanktioner för de inblandade juristerna.
Senaste nytt
Google stäms för förtal
Samtidigt möter sökjätten Google ett ökande antal stämningar kopplade till hur deras AI-tjänster beskriver privatpersoner och offentliga aktörer.
I en artikel från Yahoo News framgår det att bolaget står inför rättsliga påföljder efter att AI-genererade sammanfattningar innehållit ärekränkande och felaktiga uppgifter.
Riskerna för den personliga integriteten och ryktet understryks ytterligare av att en konservativ aktivist valt att stämma Google.
Enligt nyhetskanalen Al Jazeera rör tvisten AI-genererade uttalanden som påstås vara djupt missvisande och skadliga för målsägandens anseende.
Dessa fall visar på den osäkerhet som uppstår när AI-verktyg används för att sammanställa information om individer utan en mänsklig faktagranskning i sista ledet.
Ekonomiska risker och ”skandaler”
Det är inte bara enskilda individer som drabbas. Även stora konsultbolag och analysföretag har hamnat i blåsväder när tekniken sviker.
I en genomgång hos Yabble beskrivs hur felaktig information i en rapport kopplad till Deloitte skapat stora rubriker. Det visar på farorna med att använda generella AI-modeller utan tillräcklig mänsklig översyn eller specialanpassade system.
Denna problematik utgör en fundamental utmaning för de bolag som utvecklar tekniken. Som framgår i en artikel i EFN är hallucinationerna en av de största trösklarna för AI-bolagens framtida tillväxt.
Om användarna inte kan lita på att svaren är korrekta minskar teknikens ekonomiska värde drastiskt i branscher som finans och medicin.
Så styr du AI mot kvalitetssäkrade fakta
För att undvika att AI-modeller ”tänker fritt” och hittar på information finns det flera strategier som både företag och privatpersoner bör använda.
Enligt analysen av Handelsbankens kundtidning EFN handlar en av de mest effektiva metoderna om att implementera system som RAG (Retrieval-Augmented Generation) och RIG (Retrieval-Interpreted Generation).
Metoder för att undvika hallucinationer
RAG (retrieval-augmented generation)
Kopplar ihop stora språkmodeller med externa fakta. I stället för att bara använda sina träningsdata hämtar modellen först information från en databas och bygger svaret utifrån både det materialet och sin egen språkförmåga. Målet är att minska hallucinationer och ge mer korrekta svar.
RIG (retrieval interleaved generation)
RIG går ett steg längre. Här vägs den hämtade informationen in redan när modellen börjar formulera sitt svar, i stället för att sökning och generering sker var för sig. Det ska ge ännu färre fel och mer precisa svar i frågor som kräver hög noggrannhet.
Dessa tekniker tvingar modellen att först hämta information från en specifik och verifierad källa, snarare än att enbart förlita sig på sin egen förtränade databas.
Ytterligare sätt att öka säkerheten inkluderar:
- Användning av domänspecifika verktyg: Istället för breda, generella modeller bör man välja AI som är byggd för specifika ändamål med inbyggda spärrar för integritet och datafel.
- Justering av parametrar: Genom att sänka modellens ”temperatur”, en inställning som styr slumpmässighet, kan man enligt guiden från Skolagent göra svaren mer faktabaserade och mindre kreativa.
- Tydlig kontextmatning: Genom att själv tillhandahålla det material som AI:n ska analysera (exempelvis ladda upp de dokument som ska sammanfattas) minskar man utrymmet för modellen att fylla i luckor med eget påhittat innehåll.
Trots dessa framsteg påminner experterna om att hallucinationer fortfarande kan förekomma.
Slutsatsen är tydlig: all information som genereras av AI måste i slutändan verifieras av en människa för att säkra att de juridiska och ekonomiska riskerna minimeras.

Chefredaktör och ansvarig utgivare för Dagens PS och Realtid. Bevakar främst politik, världshändelser och makro. Har drivit Dagens PS sedan 2018.

Chefredaktör och ansvarig utgivare för Dagens PS och Realtid. Bevakar främst politik, världshändelser och makro. Har drivit Dagens PS sedan 2018.

Kjell & Company - Kunskap och tillbehör till hemelektronik. Kjell & Company är ett av Sveriges starkaste varumärken och en ledande aktör inom svensk detaljhandel. Bolaget har mer än 30 års erfarenhet av hemelektronik i kombination med gedigen kunskap och personlig rådgivning. Just nu pågår lagerrensning med mängder av bra deals.










