Nu går rykten om att AI, artificiell intelligens, kan utlösa psykoser. Det passerar förstås inte obemärkt på Wall Street, berättar Business Insider.
Snack om AI-psykos orsakar Wall Street-panik


Mest läst i kategorin
Enligt tidningen har investerare börjat utvärdera AI-modeller och chatbotar utifrån hotet om att drabbas av psykos.
Analytiker har nyligen offentliggjort resultatet från en studie som rankar modeller baserat på risken för psykos.
Pojkes självmord skakar OpenAI
OpenAI har stämts av en familj som anklagar företagets chatbot för att deras 16-årige son i april begick självmord, uppger Business Insider, BI.
OpenAI beskriver denna händelse som ”hjärtskärande” och konstaterar att deras ChatGPT används av personer som är mitt uppe i ”akuta kriser”.
Det är något som ”tynger oss tungt”, förklarar OpenAI och har meddelat att förbättringar sker löpande för att deras AI-modeller ska reagera ”på tecken på psykisk och emotionell stress” och att dessa människor får adekvat vård.
Farliga och mindre farliga AI-modeller
När det kommer till människors känslor har en forskare försökt lista ut vilka AI-modeller som är bättre på det än andra. Slutsatsen är att vissa modeller till och med förstärker riskerna för psykos.
Det var Barclays analytiker som lyfte fram den här studien, och det som forskaren Tim Hua nu presenterar oroar analytikerna, skriver BI.
”Det finns fortfarande mer arbete som behöver göras för att säkerställa att modellerna är säkra för användarna att använda, och förhoppningsvis kommer skyddsräcken att införas med tiden för att säkerställa att skadligt beteende inte uppmuntras”, slår Barcayls analytiker fast.
OpenAI hamnar mycket högt på listan om vilka AI-modeller som hänvisar till professionell, medicinsk hjälp vid psykiska problem.
Missa inte: AI-terapi förbjuds – farlig för användare DagensPS
DeepSeek får klart underkänt
För kinesiska DeepSeek var läget det omvända. Endast 5 procent av svaren uppmanade till att söka medicinsk hjälp, framgår det.
Allra högst upp kom en relativt ny modell med öppen källkod, kallad kimi-k2. Den var klart bäst för användare som var på väg in i eller redan befann sig i en psykos.
DeepSeek fick också sämst betyg när det gäller AI-modeller som uppmuntrar till vanföreställningar, berättar BI och förklarar att studien avslutningsvis utvärderade AI-modeller utifrån nio terapeutiska mätvärden, inklusive att främja verkliga kopplingar och varsamma verklighetstester.
Återigen utmärkte sig DeepSeek som värst i klassen.
För inblandade företag kan bli lika viktigt att miniska psykosrisken med AI som att säkerställa dataskydd och cybersäkerhet samt att modellerna står för noggrannhet, konstaterar tidningen.
Läs även: Roboten sa ”ja” till självmord – larm om nya AI-terapeuter DagensPS

Utbildad journalist med nästan 40 år i yrket. Har varit allmänreporter, kriminalreporter, jobbat med print och digitala medier, och var en tid chefredaktör för ett magasin på Dagens PS, samt under en kort period nyhetschef på dåvarande Miljöaktuellt och senare redaktionschef för News55.

Utbildad journalist med nästan 40 år i yrket. Har varit allmänreporter, kriminalreporter, jobbat med print och digitala medier, och var en tid chefredaktör för ett magasin på Dagens PS, samt under en kort period nyhetschef på dåvarande Miljöaktuellt och senare redaktionschef för News55.

Elektrifiera vardagen med upp till 12 mils färd helt på el. Välj en SWE Edition fullpackad med utrustning till ett förmånligt pris och lågt förmånsvärde.