ChatGPT, udviklet af OpenAI, er kendt for sine avancerede sprogbehandlingsfærdigheder, men bag kulisserne skjuler der sig en betydelig miljømæssig omkostning. Træning og udvikling af denne store sprogmodel kræver enorme mængder energi, hvilket resulterer i et betydeligt CO2-aftryk og vandforbrug.
Datacentre, som huser servere nødvendige for AI-modeller som ChatGPT, er kendt for deres høje energiforbrug og CO2-udledning. Ifølge skøn udsender ChatGPT 8,4 tons CO2 årligt, hvilket er mere end dobbelt så meget som en gennemsnitlig persons årlige udledning. Energikilden til disse datacentre spiller en afgørende rolle i mængden af udledninger, med kul og naturgas som de mest skadelige.
En undersøgelse fra University of California, Riverside, har afsløret, at AI-modeller som ChatGPT også har et betydeligt vandfodspor. Under træningsprocessen for GPT-3 blev der brugt omkring 700.000 liter ferskvand i Microsofts datacentre. Vandet bruges primært til at køle maskinerne ned, da den store mængde energi, der bruges under træningen, omdannes til varme.
For at mindske miljøpåvirkningen fra AI er det nødvendigt med større transparens i udviklings- og driftsprocesserne for maskinlæringsystemer. Forskere har udviklet rammer og online værktøjer for at hjælpe med at rapportere og benchmark energi- og CO2-forbrug, hvilket fremmer ansvarlig praksis i feltet. Ved at anerkende begrænsningerne ved sprogmodeller som ChatGPT og fremme forskning, der ikke kun fokuserer på større og mere komplekse modeller, kan vi arbejde hen imod en mere bæredygtig fremtid, hvor teknologisk fremskridt ikke går på bekostning af vores planet.