Dagens PS

AI: Långa svar slukar energi

AI drar allt mer energi. Och långa svar drar mest. Foto: (Unsplash)
Johan Colliander
Johan Colliander
Uppdaterad: 23 juni 2025Publicerad: 23 juni 2025

Ställer du en fråga till en AI-bot kostar det energi. Ny forskning visar att ju längre och mer träffsäkert svaret blir desto mer energi går åt. Ett långt svar kan dra upp till 50 gånger så mycket energi.

ANNONS
ANNONS

Mest läst i kategorin

För varje fråga man ställer till en AI som ChatGPT, Gemini eller liknande förbrukas det en viss mängd energi. Den mängden ökar kraftigt ju längre svaret blir visar en ny studie.

Studien ledd av Maximilian Dauner på Hochschule München University of Applied Sciences undersökte energiförbrukningen hos 14 stora språkmodeller (LLMs), skriver Earth.com.

Läs även:
AI tar över reklamen – kreatörer pressas ut av algoritmer. Realtid

Bland annat kom man fram till att ett svar från de mest snacksaliga modellerna skapade lika stora koldioxidutsläpp som mellanstor laptop gör under en timmes användning.

Träffsäkerhet kostar

Studien visar också att det inte bara är längden på svaren som driver energiförbrukningen utan också komplexiteten.

Varje fråga till en AI skapar en viss mängd instanser, så kallade tokens, som förvandlas till siffror. Dessa upptar sedan processorkraft.

Vissa av modellerna “tänker högt” och i studien producerade dessa i snitt 543.5 tokens. Detta jämförs med 37.7 tokens hos de mer kortfattade. Det innebär att ett svar kan i vissa fall dra 50 gånger så mycket energi som ett kort.

Framförallt visade studien att frågor om algebra använde betydligt mer processorkraft än frågor om historia. Samtidigt framgår det att modeller som förbrukade mindre än 500 gram utsläpp inte kunde nå över 80 procent i träffsäkerhet i sina svar.

ANNONS
ANNONS

Senaste nytt

Spela klippet
PS Partner

För många IT-projekt misslyckas – här är misstagen du måste undvika

22 maj 2025

AI behöver allt mer energi

När AI-teknologin blir allt mer utbredd och kraftigare drar den också mer energi på ett generellt plan. Enligt beräkningar i en ny studie kan generativ AI komma att konsumera 29,3 terrawatt-timmar per år. Det är ungefär lika mycket som Irlands årsförbrukning.

AI har redan nu börjat kräva allt mer energi. Både kolkraft och kärnkraft har blivit aktuella igen för att kunna möta behovet av energi.

Missa inte:
Oväntad motreaktion mot AI: Användarna tar ställning. Dagens PS

För att minska förbrukningen av energi för AI är det nu främst upp till utvecklarna. De bör skriva språkmodeller som inte kräver lika mycket datorkraft. Finns det inställningar som ställer krav på AI:n att svara kort och koncist kan också den enskilda användaren minska sin egna förbrukning.

Att lära sig vilka modeller som kan användas för vilka uppgifter kan också bidra till en minskad förbrukning. Om de tyngre modellerna reserveras för de mer komplicerade frågorna går det att spara energi menar forskarna.

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
Johan Colliander
Johan Colliander

Mångårig ekonomijournalist. Tidigare på Fri Köpenskap, Food Supply och Fastighetsvärlden.

Johan Colliander
Johan Colliander

Mångårig ekonomijournalist. Tidigare på Fri Köpenskap, Food Supply och Fastighetsvärlden.

ANNONS
ANNONS

Senaste nytt

ANNONS
ANNONS