Gabriel Skantze från KTH har forskat om konversationell AI i 25 år. Nu varnar han för att vi lurar oss själva att vi har tänkt, bara för att AI serverat svaret.
KTH-professor: Största risken med AI är inte felaktiga svar, utan att vi slutar tänka själva

Han är professor vid Kungliga Tekniska Högskolan, chefsforskare på Furhat Robotics och en av Sveriges mest erfarna röster inom konversationell AI. I ett samtal i podden Stockholm AI Street Talk utvecklar Gabriel Skantze sin syn på vart relationen mellan människa och maskin är på väg.
”Vi bedrar oss ibland och tror att vi har gjort ett arbete bara för att vi lät AI göra det. Men det har vi inte”, säger han.
”Det svåra är att ställa rätt frågor”
Skantze pekar på en fundamental asymmetri. AI är bra på att leverera svar, men dålig på att formulera frågor. Och det är just förmågan att ställa rätt fråga som skiljer framgångsrika forskare, entreprenörer och ledare från mängden.
”Om vi inte internaliserar kunskapen utan outsourcar allting, kommer vi inte kunna ställa de frågorna. Inom akademin är det att hitta rätt fråga som är det svåra. Att besvara den är den enkla delen. Samma sak gäller för ett startup: vilken fråga försöker vi egentligen lösa?”
Risken, menar han, är att vi rör oss mot ett samhälle som blir alltmer teknologiskt, men där allt färre förstår det.
Språk är inte intelligens
Ett av samtalets mest kontraintuitiva ämnen handlar om relationen mellan språk och tänkande. Skantze refererar till forskning som visar att hjärnans språknätverk är tyst under logiskt resonemang, matematiska uppgifter och kodläsning.
”Många tror intuitivt att språklig förmåga innebär intelligens. Men forskningen visar att språk primärt är ett kommunikationsverktyg, inte ett tankeverktyg”, säger han.
Det betyder att dagens stora språkmodeller kan låta övertygande utan att faktiskt resonera. I samtalet diskuteras begreppet ”epistemia”, hämtat från en forskningsartikel om kunskapsteoretiska skillnader mellan mänsklig och artificiell intelligens.
Idén är att lingvistisk trovärdighet kan ersätta verkligt kunskapsarbete. Det låter rätt, därför tror vi att det är rätt. Skantze håller med om bilden.
”Det knyter an till den tidigare frågan om att vi får tankeprocesser serverade och tror att det var vår egen tankeprocess, men det var det inte. Det var förbearbetat åt oss”, säger han.
Robotar utan moraliskt ansvar
Skantze berättar om ett experiment vid KTH där deltagare fick frågan hur mycket pengar de ville skänka till välgörenhet. De som satt framför en människa uppgav högre summor än de som satt framför en dator. Roboten hamnade närmare datorn.
”Även om roboten var programmerad att bete sig människolikt verkade deltagarna inte känna sig moraliskt bedömda av den. Det tycker jag faktiskt är bra”, säger Skantze.
Men han varnar för att dynamiken förändras om robotar blir uppkopplade och del av sociala sammanhang. Då är det inte längre roboten som bedömer, utan människorna som tittar på.
En framtid med fler AI-profiler än människor
Programledaren Al Leilani målar i samtalet upp en framtid där AI-profiler blir vanligare än mänskliga på internet, och där vi inte kan skilja dem åt. Skantze tror inte att människor egentligen vill ha det så.
”Om du postar något på sociala medier och får AI-bottar som kommenterar, det är inte tillfredsställande. Du vill veta att det var en människa som läste det”, säger han.
Lösningen: AI som frågar tillbaka
Istället för system som bara levererar svar vill Skantze se AI som aktivt bygger gemensam förståelse med användaren innan den agerar.
”Idag gissar AI-agenter vad du vill och kör på. En människa hade frågat tillbaka, försökt förstå syftet bakom förfrågan. Det är dit vi behöver komma”, säger han.





