Det koster det klimaet når du spørger en chatbot
Det koster energi og vand, hver eneste gang du sætter en chatbot som ChatGPT til at undersøge noget
"Planlæg en uges rejse til Montenegro med de største seværdigheder undervejs". Enter. Med et klik på en knap kan du sidde med et fuldt planlagt program for syv dages rejse på Balkan, som en chatbot som ChapGPT har skruet sammen for dig på sekunder.
Men det er ikke gratis, når chatbotten har skullet fordøje enorme datamængder for at imødekomme din forespørgsel - et såkaldt prompt. De avancerede sprogmodeller kræver faktisk næsten et helt datacenter for at køre. Og det koster energi.
Store mængder vand
Hvor meget energi er noget af det, som adjunkt Raghavendra Selvan og hans team på Datalogisk Institut ved Københavns Universitet undersøger.
- Det koster mindst en watt-time per prompt. Hvert prompt koster egentlig ikke så meget. Men hvis en masse mennesker laver en masse prompts, så vil det koste, forklarer forskeren.
Ud over strøm til datacenteret kræver det også store mængder af vand. Det skyldes, at der udvikles så meget varme undervejs, at man må bruge vand til at køle det ned.
- Det bliver estimeret, at 40 procent af energien går til elektricitet og 40 procent går til vand til køling, siger Raghavendra Selvan med reference til en rapport fra The International Energi Agency (IEA).
Vand til 100 ord
The Washington Post har i samarbejde med forskere fra University of California undersøgt, hvad vandforbruget er, ved at få ChatGPT til at skrive en gennemsnitlig mail på 100 ord.
Her anslår de, at det koster 519 milliliter vand - altså lige over en halvliters flaske.
Raghavendra Selvan sammenligner strømforbruget ved at lave et prompt med at lade din mobiltelefon op. Et enkelt prompt svarer til at lade din telefon op mellem 1 og 40 gange.
Det store spænd skyldes, at tallene er behæftet med en del usikkerhed. Firmaer som OpenAI, der står bag ChatGPT, holder nemlig kortene helt tæt til kroppen. Så vi kender ikke ret meget til deres metoder eller tal.
For krævende
- Den første version af ChatGPT var baseret på en offentligt tilgængelig forskningsartikel. Men siden er OpenAI stoppet med at offentliggøre det, fortæller Raghavendra Selvan, der derfor har været nødt til at tage lidt andre metoder i brug.
Der findes nemlig frit tilgængelige versioner - såkaldt opensource - af chatbotter, der ligner ChatGPT. Og ved at bruge deres tal kan han komme tæt på et svar.
Det er dog ikke muligt at lave et en til en-setup på Københavns Universitet, hvor man efterligner de avancerede sprogmodeller. Det skyldes, at det ganske enkelt er for krævende i computerkraft. Det kræver nærmest et helt datacenter.
Derfor prøver de det af i mindre skala. Og så ganger de det op. Og den proces er igen behæftet med en vis usikkerhed, som Raghavendra Selvan pointerer.
I et hollandsk studie har forskerne ifølge New York Times set nærmere på, hvor meget strøm vi kan forvente, at de AI-servere, som sælges alene i 2027, kommer til at trække. I det, forskerne kalder deres middel-scenarie, anslår de, at AI-servere i 2027 vil sluge en mængde strøm, som svarer til, hvad et helt land som Sverige eller Holland bruger på et år.