En ny stor studie varnar för att det är riskabelt att använda AI-tjänster baserade på stora språkmodeller, som exempelvis Chat GPT, för att söka medicinska råd.
Studie varnar: Riskabelt med AI för medicinska råd

Läkaren Alice Chiao, som tidigare undervisade studenter i akutmedicin vid Stanford Universitys medicinska fakultet, lär nu i stället ut sin medicinska kunskap till arificiell intelligens, AI, det rapporterade Dagens PS om förra veckan.
Hon jobbar med att träna AI-modeller för att hon vill se till att informationen de har är korrekt och att den är säker och begriplig för dem som använder den.
En ny studie visar nu att Alice Chiaos arbete verkligen behövs, studien visar nämligen att det är en riskkabel metod att använda AI-modeller baserade på stora språkmodeller, LLM, för att fatta medicinska beslut.
Krävs annan kommunikationsnivå
Studien är gjord av forskare vid Oxford University och i den fick 1 300 studiedeltagare specifika medicinska tillstånd utvecklade av läkare, det skriver Newsweek.
Deltagarna delades in i två grupper, den ena gruppen bad om medicinska råd från AI-modeller baserade på LLM, som Chat GPT och Open AI, den andra gruppen samlade in information från traditionella källor.
AI-modeller baserade på LLM är bra på att förstå medicin och standardpraxis, men studien visar att för att hjälpa användare med deras medicinska problem krävs en kommunikationsivå som AI-modellerna har svårt att uppnå.
Studien visar att AI-modellerna inte gav bättre resultat än traditionella metoder för att utvärdera medicinska tillstånd, som att söka information på internet eller använda en människas bästa bedömning.
AI-modellerna förstod inte heller alltid vad en studiedeltagare frågade och deltagarna visste ofta inte hur de skulle ge AI:n rätt information.
AI är inte redo
Rebecca Payne, huvudläkare i studien, säger att studiens resultat belyser svårigheten med att bygga AI-system som verkligen kan stödja människor inom känsliga områden som hälsa.
”Trots all hype är AI helt enkelt inte redo att ta på sig läkarens roll. Patienter måste vara medvetna om att det kan vara farligt att fråga en stor språkmodell om sina symtom, det kan ge fel diagnoser och misslyckas med att känna igen när akut hjälp behövs”, säger hon i ett pressmeddelande.
I studien gav AI-modellerna ofta en blandning av både bra och dåliga svar och studiedeltagarna kunde inte skilja på de dåliga och de bra svaren utan hjälp av en läkare.
Studiens seniorförfattare, Adam Mahdi tycker att den här klyftan mellan AI-modellerna och användare bör vara en väckarklocka för både utvecklare och tillsynsmyndigheter.
”Vi kan inte enbart förlita oss på standardiserade tester för att avgöra om dessa system är säkra för offentlig användning. Precis som vi kräver kliniska prövningar för nya läkemedel, behöver AI-system rigorösa tester med olika, verkliga användare för att förstå deras verkliga kapacitet i högriskmiljöer som hälso- och sjukvård”, säger han i pressmeddelandet.
Lä’s mer på Dagens PS: AI:n som kan rädda – eller ersätta – läkaren
Läs mer på E55: Alla pratar om Chat GPT – men det här är AI som redan styr din vardag
Läs mer på Realtid: Snart kan AI läsa dina tankar – före dig





