Ställer du en fråga till en AI-bot kostar det energi. Ny forskning visar att ju längre och mer träffsäkert svaret blir desto mer energi går åt. Ett långt svar kan dra upp till 50 gånger så mycket energi.
AI: Långa svar slukar energi


Mest läst i kategorin
För varje fråga man ställer till en AI som ChatGPT, Gemini eller liknande förbrukas det en viss mängd energi. Den mängden ökar kraftigt ju längre svaret blir visar en ny studie.
Studien ledd av Maximilian Dauner på Hochschule München University of Applied Sciences undersökte energiförbrukningen hos 14 stora språkmodeller (LLMs), skriver Earth.com.
Läs även:
AI tar över reklamen – kreatörer pressas ut av algoritmer. Realtid
Bland annat kom man fram till att ett svar från de mest snacksaliga modellerna skapade lika stora koldioxidutsläpp som mellanstor laptop gör under en timmes användning.
Träffsäkerhet kostar
Studien visar också att det inte bara är längden på svaren som driver energiförbrukningen utan också komplexiteten.
Varje fråga till en AI skapar en viss mängd instanser, så kallade tokens, som förvandlas till siffror. Dessa upptar sedan processorkraft.
Vissa av modellerna “tänker högt” och i studien producerade dessa i snitt 543.5 tokens. Detta jämförs med 37.7 tokens hos de mer kortfattade. Det innebär att ett svar kan i vissa fall dra 50 gånger så mycket energi som ett kort.
Framförallt visade studien att frågor om algebra använde betydligt mer processorkraft än frågor om historia. Samtidigt framgår det att modeller som förbrukade mindre än 500 gram utsläpp inte kunde nå över 80 procent i träffsäkerhet i sina svar.
AI behöver allt mer energi
När AI-teknologin blir allt mer utbredd och kraftigare drar den också mer energi på ett generellt plan. Enligt beräkningar i en ny studie kan generativ AI komma att konsumera 29,3 terrawatt-timmar per år. Det är ungefär lika mycket som Irlands årsförbrukning.
AI har redan nu börjat kräva allt mer energi. Både kolkraft och kärnkraft har blivit aktuella igen för att kunna möta behovet av energi.
Missa inte:
Oväntad motreaktion mot AI: Användarna tar ställning. Dagens PS
För att minska förbrukningen av energi för AI är det nu främst upp till utvecklarna. De bör skriva språkmodeller som inte kräver lika mycket datorkraft. Finns det inställningar som ställer krav på AI:n att svara kort och koncist kan också den enskilda användaren minska sin egna förbrukning.
Att lära sig vilka modeller som kan användas för vilka uppgifter kan också bidra till en minskad förbrukning. Om de tyngre modellerna reserveras för de mer komplicerade frågorna går det att spara energi menar forskarna.

Mångårig ekonomijournalist. Tidigare på Fri Köpenskap, Food Supply och Fastighetsvärlden.

Mångårig ekonomijournalist. Tidigare på Fri Köpenskap, Food Supply och Fastighetsvärlden.