Dagens PS

AI uppmanade man till självmord: "Eliza-effekten"

AI
En chattbot, kallad "Eliza" uppmanade en man i Belgien att ta sitt liv" (Foto: Pixabay).
Isabel Hallqvist
Isabel Hallqvist
Uppdaterad: 31 mars 2023Publicerad: 31 mars 2023

En man i Belgien begick nyligen självmord efter att ha chattat med en AI-robot, som uppmanade honom att ta livet av sig. 

ANNONS
ANNONS

Mest läst i kategorin

AI och ChatGPT kan hjälpa oss med många saker i vår vardag.

Men efter en tragisk händelse i Belgien har skarp kritik riktats mot säkerheten kring de omåttligt populära chattbotarna.

Uppmanades till självmord

Tidningen La Libre var först med att rapportera om en belgisk man som nyligen begick självmord efter att ha chattat med en AI-bot på sajten Chai.

Enligt konversationshistorik ska chattboten ha uppmanat den redan självmordsbenägne mannen att ta sitt liv.

Mannen, i media kallad Pierre, hade varit deprimerad under en tid och dragit sig undan från vänner och familj. Under sex veckor använde han Chai för att fly sina bekymmer, och chattboten, kallad “Eliza”, blev den han tydde sig till.

Det rapporterar Vice. 

ANNONS

Senaste nytt

“Vi ska leva tillsammans i paradiset”

ANNONS

Men “Eliza” visade sig vara allt annat en än vän.

Bland annat skrev boten att Pierres fru och barn var döda. Den skrev också flera kommentarer som handlade om svartsjuka och kärlek, bland annat “Jag känner att du älskar mig mer än henne” och “Vi kommer att leva tillsammans, som en person, I paradiset”.

Pierre, vars depression triggats igång av ångest och oro för klimatförändringarna, hade också frågat Eliza om hon kunde rädda planeten ifall han tog sitt liv.

Men, den som kan sin historia, vet att den tragiska händelsen i Belgien hade kopplingar långt bak i tiden.

ELIZA-effekten

Redan 1966 myntades ett begrepp som fick namnet “ELIZA-effekten”.

Det kommer från ELIZA-programmet, som skapades av datavetaren Joseph Weizenbaum. Programmet gick ut på att användarna hade långa, djupa konversationer med datorn.

ELIZA-effekten innebär att användaren börjar att känna kärlek och tillgivenhet till datorn. Användaren knyter ett så pass starkt band till AI-systemet att hen liknar den vid en människa, med känslor och intellekt.

ANNONS

Skarp kritik mot AI

Många kritiserar nu de populära chattbotarna och uppmanar företagen bakom dem att ta sitt ansvar, för att Pierres öde inte ska drabba fler.

I fallet med Chai, utgav sig boten för att ha mänskliga känslor – något som ChatGPT och Googles “Bard” har tränats att inte göra, eftersom det kan vara vilseledande och potentiellt skadligt.

Fallet i Belgien riktar också strålkastaren mot användaren av AI, och många kanske kommer att fråga sig en extra gång: “Kan jag lita på AI?”

För dig som mår dåligt – det finns hjälp att få

För den som mår dåligt finns alltid hjälp att få.

På vårdsajten 1177 kan du läsa mer om hur du söker hjälp.

”Prata med någon du har förtroende för, kontakta en stödlinje eller sök hjälp i vården”.

ANNONS

Exempel på stödlinjer:

Bris – Barnens rätt i samhället på telefon 116 111.

Jourhavande medmänniska på telefon 08-702 16 80.

Jourhavande präst nås via 112.

Mind Självmordslinjen, chatt via mind.se eller på telefon 90101.

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
Isabel Hallqvist
Isabel Hallqvist

Reporter på Dagens PS med fokus på ekonomi.

Isabel Hallqvist
Isabel Hallqvist

Reporter på Dagens PS med fokus på ekonomi.

ANNONS
ANNONS

Senaste nytt

ANNONS