23948sdkhjf

AI-boomen hotar energibalansen – experter varnar för dolda el- och miljökonsekvenser

Generativ AI förutspås revolutionera vår vardag – men till vilket pris? Med kraftigt ökande energibehov från datacenter väcks nu frågor om teknikens hållbarhet. Med generativ AI:s snabba expansion riskerar energiförbrukningen att skena, och experter varnar för att miljöpåverkan underskattas.

Få tänker på att varje fråga till ChatGPT, varje AI-genererat svar, bär en energikostnad. Medan traditionella Google-sökningar förbrukar omkring 0,3 Wh per sökning, kräver en fråga till generativ AI ungefär tio gånger mer energi. Och när miljarder användare vänder sig till AI-tjänster varje dag blir effekten snabbt global. 

Faktum är att om alla de cirka nio miljarder Google-sökningar som görs dagligen byttes till ChatGPT, skulle det öka det totala effektbehovet med 10 TWh per år. Goldman Sachs Research (GSR) uppskattar att mängden el som används av datacenter kommer att öka med 160 procent under de kommande fem åren, och att de kommer att stå för 3 till 4 procent av den globala elanvändningen. Dessutom kommer deras koldioxidutsläpp sannolikt att fördubblas mellan 2022 och 2030.

Manuel Cubero-Castan, projektledare för hållbar IT på École polytechnique fédérale de Lausanne (EPFL), frågar sig i en artikel från universitetet om vi har råd med framtidens AI - rent energimässigt? Samtidigt uppmanar han till ett helhetstänk. Han påpekar att generativ AI inte bara påverkar genom elförbrukning utan även genom utvinning av mineraler, tillverkning av komponenter och det växande elektronikavfallet.

– Vi behöver veta den totala kostnaden för generativa AI-system för att kunna använda dem så effektivt som möjligt, säger Manuel Cubero-Castan i artikeln.

Han pekar också på riskerna med att bygga ut infrastrukturen utan hänsyn till lokala resurser. I vissa regioner står datacenter redan för en femtedel av den totala strömförbrukningen.

– Att bygga datacenter i regioner där vatten- och strömförsörjningen redan är ansträngd är kanske inte det mest hållbara valet, förklarar han.

Trots tekniska framsteg, som bättre kylsystem och energieffektiva chip, ökar den totala energianvändningen i takt med att generativ AI blir alltmer utbredd. Och parallellt växer behovet av mineraler, komponenter och datalagring – vilket förlänger den ekologiska skulden.

– Om vi börjar använda generativ AI-teknik i massiv skala, med allt större LLM (Large Language Model), kommer de resulterande energivinsterna att vara långt ifrån tillräckliga för att uppnå en minskning av de totala koldioxidutsläppen, menar Manuel Cubero-Castan.

För att tekniken ska bli en verklig tillgång – även ur ett klimatperspektiv – menar han att det krävs större medvetenhet, tydligare reglering och ansvarsfullt nyttjande.

Vi måste fråga oss: har vi råd med framtidens AI – rent energimässigt? Manuel Cubero-Castan

Nya initiativ, som EPFL:s eget projekt Heating Bits, fokuserar på att förbättra datacenters energieffektivitet och återvinna spillvärme. Och storaktörer som Nvidia arbetar på att göra sina AI-chips både kraftfullare och energisnålare. Men trots tekniska framsteg kvarstår stora utmaningar.

Enligt Manuel Cubero-Castan råder det dock ingen tvekan om att AI har potential att bidra till en grön omställning – med smarta nät, effektivare resursanvändning och bättre simuleringar för klimatforskning. Men det förutsätter att tekniken används klokt och att dess miljöpåverkan inte ignoreras.

Kommentera en artikel
Utvalda artiklar

Nyhetsbrev

Sänd till en kollega

0.094