
Ny studie: Chat GPT förbrukar mindre energi än väntat
En ny undersökning från forskare på Epoch AI visar att energiförbrukningen vid användning av Chat GPT är betydligt lägre än vad som tidigare befarats.
Tidigare uppskattningar angav att varje svar från Chat GPT krävde omkring 3 wattimmar, men de nya beräkningarna visar att förbrukningen snarare ligger på 0,3 wattimmar per fråga. Detta innebär att energiförbrukningen nu är i nivå med en vanlig Google-sökning.
Effektivare chipp bakom energibesparingen
Den stora skillnaden mellan de gamla och nya siffrorna förklaras med att OpenAI har bytt till modernare och mer energieffektiva chipp. Trots de nya resultaten har OpenAI själva valt att inte kommentera undersökningen eller bekräfta några siffror.
AI:s miljöpåverkan i nytt ljus
Joshua You från Epoch AI kommenterar resultaten i en intervju med TechCrunch:
”Energiförbrukningen är inte hög om man jämför med att använda vanliga apparater, värma eller kyla ditt hem, samt köra bil.”
Vad betyder detta för AI:s framtid?
De nya siffrorna kan förändra debatten om AI:s klimatpåverkan. Med en energiförbrukning i nivå med en Google-sökning framstår Chat GPT som betydligt mer hållbar än tidigare antagits. Detta kan stärka argumenten för en bredare användning av AI i olika samhällssektorer.