Det koster det klimaet når du spørger en chatbot

Det koster energi og vand, hver eneste gang du sætter en chatbot som ChatGPT til at undersøge noget

Offentliggjort

Chatbots og deres energiforbrug: En klimabelastning

  • Chatbots som ChatGPT kræver betydelige mængder energi og vand for at fungere, hvilket har en betydelig indvirkning på klimaet. Hver forespørgsel til en chatbot, også kaldet et prompt, kan sammenlignes med at oplade en mobiltelefon op til 40 gange.
  • Forskere fra Københavns Universitet undersøger det præcise energiforbrug, og de anslår, at 40% af energien går til elektricitet og yderligere 40% til vand til køling. Dette skyldes den varme, der genereres under driften af datacentre.
  • En undersøgelse fra The Washington Post viser, at det kræver 519 milliliter vand for at få ChatGPT til at skrive en kort mail. Dette understreger de miljømæssige omkostninger ved at bruge avancerede sprogmodeller, som forventes at stige markant i fremtiden.

Denne faktaboks blev genereret af Labrador AI og korrekturlæst af en journalist.

"Planlæg en uges rejse til Montenegro med de største seværdigheder undervejs". Enter. Med et klik på en knap kan du sidde med et fuldt planlagt program for syv dages rejse på Balkan, som en chatbot som ChapGPT har skruet sammen for dig på sekunder.

Men det er ikke gratis, når chatbotten har skullet fordøje enorme datamængder for at imødekomme din forespørgsel - et såkaldt prompt. De avancerede sprogmodeller kræver faktisk næsten et helt datacenter for at køre. Og det koster energi.

Store mængder vand

Hvor meget energi er noget af det, som adjunkt Raghavendra Selvan og hans team på Datalogisk Institut ved Københavns Universitet undersøger.

- Det koster mindst en watt-time per prompt. Hvert prompt koster egentlig ikke så meget. Men hvis en masse mennesker laver en masse prompts, så vil det koste, forklarer forskeren.

Ud over strøm til datacenteret kræver det også store mængder af vand. Det skyldes, at der udvikles så meget varme undervejs, at man må bruge vand til at køle det ned.

- Det bliver estimeret, at 40 procent af energien går til elektricitet og 40 procent går til vand til køling, siger Raghavendra Selvan med reference til en rapport fra The International Energi Agency (IEA).

Det er ikke bare dit spørgsmål til en AI-chatbot, der koster energi. Det er særligt arbejdet med at træne sprogmodellerne. Og så koster det også at bygge datacentrene.

Vand til 100 ord

The Washington Post har i samarbejde med forskere fra University of California undersøgt, hvad vandforbruget er, ved at få ChatGPT til at skrive en gennemsnitlig mail på 100 ord.

Her anslår de, at det koster 519 milliliter vand - altså lige over en halvliters flaske.

Raghavendra Selvan sammenligner strømforbruget ved at lave et prompt med at lade din mobiltelefon op. Et enkelt prompt svarer til at lade din telefon op mellem 1 og 40 gange.

Det store spænd skyldes, at tallene er behæftet med en del usikkerhed. Firmaer som OpenAI, der står bag ChatGPT, holder nemlig kortene helt tæt til kroppen. Så vi kender ikke ret meget til deres metoder eller tal.

FAKTA: Forskellen på traditionel AI og en chatbot

* AI står for artificial intelligence, altså kunstig intelligens.

* Traditionel AI kan udføre specifikke opgaver baseret på nogle forudbestemte regler eller algoritmer. Det er typisk analyse af store datamængder.

* Generativ AI er modeller med kunstig intelligens, som er designet til at generere nyt indhold ud fra et oplæg. Det kan eksempelvis være tekst, lyd, billeder eller videoer. Chatbotter som ChatGPT benytter generativ AI.

Kilder: sap.dk, forbes.com.

Dansk Erhverv lavede i 2023 en undersøgelse, der viste, at mere end en million danskere over 18 år havde prøvet ChatGPT eller andre sprogmodeller.

For krævende 

- Den første version af ChatGPT var baseret på en offentligt tilgængelig forskningsartikel. Men siden er OpenAI stoppet med at offentliggøre det, fortæller Raghavendra Selvan, der derfor har været nødt til at tage lidt andre metoder i brug.

Der findes nemlig frit tilgængelige versioner - såkaldt opensource - af chatbotter, der ligner ChatGPT. Og ved at bruge deres tal kan han komme tæt på et svar.

Det er dog ikke muligt at lave et en til en-setup på Københavns Universitet, hvor man efterligner de avancerede sprogmodeller. Det skyldes, at det ganske enkelt er for krævende i computerkraft. Det kræver nærmest et helt datacenter.

Når du benytter en chatbot som ChatGPT eller Googles pendant, Gemini, gør den brug af generativ AI. Det vil sige, at teknologien ud fra dit oplæg - dit prompt - skaber noget nyt. Eksempelvis tekst, billeder eller video.

Derfor prøver de det af i mindre skala. Og så ganger de det op. Og den proces er igen behæftet med en vis usikkerhed, som Raghavendra Selvan pointerer.

I et hollandsk studie har forskerne ifølge New York Times set nærmere på, hvor meget strøm vi kan forvente, at de AI-servere, som sælges alene i 2027, kommer til at trække. I det, forskerne kalder deres middel-scenarie, anslår de, at AI-servere i 2027 vil sluge en mængde strøm, som svarer til, hvad et helt land som Sverige eller Holland bruger på et år.

Powered by Labrador CMS