
KI kan bruke like mye energi som hele Sverige. Nå har danske forskere en løsning
Fremtidens kunstige intelligens (KI) vil kreve store mengder energi. Det krever et mer klimavennlig alternativ, påpeker forskere i en ny studie.
Når du ber ChatGPT om en kakeoppskrift eller forslag til reisemål for sommeren, krever det like mye strøm som å lade mobiltelefonen 40 ganger.
KI fører også til utslipp av store mengder CO2.
Forskere anslår at det globale energiforbruket for KI i 2027 vil tilsvare det årlige forbruket i Argentina, Nederland eller Sverige.
Det er altså en stor klimasynder. Men danske forskere har kanskje en løsning.
I en ny studie fra Københavns Universitet har tre forskere funnet en måte å gjøre KI-modeller mer energieffektive.
Hvorfor KI bruker så mye energi
Når vi bruker ChatGPT, krever det energi, men det er særlig når vi trener modellene dette blir tydelig.
– Det er to grunner til at KI-modeller fører til store utslipp, sier Raghavendra Selvan, som har gitt et estimat for energiforbruket til ChatGPT. Han er forsker ved Datalogisk Institut ved Københavns Universitet og en av forskerne bak den nye studien.
Årsakene er:
- Krevende bruk av datakraft
- Enorme datasett
I løpet av det siste tiåret har KI-modeller blitt større og kraftigere, noe som betyr at de har flere parametere, det vil si variablene modellen trenes på når den skal komme med spådommer eller beslutninger, forklarer Selvan.
Vi vet imidlertid ikke nøyaktig hvilke parametere de bruker og derfor kalles de «black-box»-modeller.
I stedet for å jobbe med noen hundre parametere, trenes modellene nå opp med over hundre milliarder parametere.
– Det er ikke mulig å få plass til alle disse parameterne på én grafikk-brikke. Derfor deler vi opp oppgaven og fordeler den på flere datamaskiner, for eksempel i et datasenter, forklarer forskeren.
Metas nyeste storskala språkmodell er for eksempel trent opp på to såkalte klyngedatamaskiner med 24.000 GPU-er hver.
Det kreves mye strøm for å holde alle disse datamaskinene i gang og – ikke minst – for å kjøle dem ned.
Den andre grunnen er dataene som modellene mates med:
I dag trenes store språkmodeller som ChatGPT opp på svært store datasett som modellen må jobbe med i lang tid.
– De trenes i utgangspunktet på tekster fra hele internett. Det blir derfor ganske krevende med tanke på antall datamaskiner, bruken og omfanget av maskinvare og tiden som trengs for å trene opp modellene, sier Selvan.
Et stort klimafotavtrykk
Det finnes flere eksempler på bruk av KI-modeller i hverdagen, for eksempel når vi bruker kameraet på telefonen til å skanne QR-koder eller gjenkjenne objekter.
Men det er generativ KI, som for eksempel ChatGPT, som er «ekstremt energikrevende», forklarer Raghavendra Selvan.
Et svar fra ChatGPT bruker for eksempel 15 ganger så mye energi som et Google-søk.
Når hundrevis av millioner spørsmål sendes til chatboten hver dag, tilsvarer det ifølge en forsker ved University of Washington det daglige energiforbruket til omtrent 33.000 husholdninger i USA.
I tillegg kreves det vann for å kjøle ned datasentrene. I en såkalt preprint anslås det at ChatGPT bruker en halv liter vann hver gang den sender ut en serie på 10-50 forespørsler.
Så bruken av generativ KI har unektelig et stort klimafotavtrykk.
Derfor må vi gjøre en avveining, sier Raghavendra Selvan. Selv om generativ KI kan være nyttig i flere sammenhenger, bør vi beregne hvor mye energi som skal brukes til det.
– Vi befinner oss fortsatt i en klimakrise, og vi må se på hvor vi kan bruke ressursene våre, sier Selvan:
– Konsekvensen er at vi bruker energi som kunne vært brukt til andre viktige ting.
KI trenger ikke å bruke så mye strøm
Men den nye studien gir håp om bedring.
I den fagfellevurderte studien som ble presentert på en vitenskapelig konferanse, har Raghavendra Selvan og to andre forskere utforsket mulighetene for mer klimabevisst KI ved å se på såkalte Convolutional Neural Networks (CNN).
Dette er den typen AI-modeller som brukes til å kjenne igjen objekter når vi tar bilder med mobilen. De brukes også av for eksempel radiologer til å analysere medisinske bilder.
I studien brukte forskerne en annen AI-modell til å estimere energiforbruket ved å trene opp 423.000 AI-modeller og fant mer energieffektive modeller.
Og resultatene er interessante, sier Luís Cruz-Filipe, som ikke har vært involvert i forskningen, men som har gjennomgått den for Videnskab.dk.
Han er forsker ved Institut for Matematik og Datalogi ved Syddansk Universitet, der han forsker på kunstig intelligens.
– De argumenterer for at det bør være en balanse mellom hvor godt modellene presterer og hvor mye energi de trenger. Det synes jeg er veldig fornuftig, sier Cruz-Filipe.
Forskerne viser en måte å spare mye energi på uten at kvaliteten på resultatene blir vesentlig dårligere. Dette er lovende, mener Cruz-Filipe.
Ut fra beregningene deres viser det seg at det finnes en rekke modeller som presterer nesten like bra, men som bruker mindre energi.
Beregningene kan derfor brukes til å bygge en modell som vil være mer energieffektiv fra starten av, noe som reduserer energiforbruket og karbonavtrykket når KI-modellen designes og trenes opp.

– Både i industrien og i forskningen har det vært større fokus på å optimalisere modeller uten å ta hensyn til energiforbruket, forklarer Raghavendra Selvan.
I tillegg trenes mange modeller før man finner den riktige modellen for å løse en gitt oppgave, noe som krever mye energi og tar lang tid.
Selvan håper at folk som jobber med KI, kan bruke studien som en slags guide for energieffektivitet.
Dermed kan de designe energieffektive modeller uten at det må gå ut over ytelsen.
– Vi sløser med ressursene. Hvis vi begynner å ta hensyn til ressursforbruket, kan vi få gode modeller som reduserer energiforbruket, sier forskeren.
Det finnes noen forbehold
Selv om intensjonen er god, kan det være farlig å trekke for mange konklusjoner fra studien, understreker Luís Cruz-Filipe:
– De lovende resultatene gjør at vi i det minste bør undersøke dette som et alternativ. Men min følelse er at det er en noe begrenset studie. De fokuserer på ett spesifikt område av kunstig intelligens.
Studien har potensial til å bli et vendepunkt, men bare hvis andre klarer å bygge videre på resultatene, mener Cruz-Filipe. Det kan for eksempel være å undersøke muligheten for å redusere energiforbruket til ChatGPT.
Raghavendra Selvan peker også på noen svakheter ved studien.
Den har bare testet på en rekke såkalte CNN-modeller og ikke de store språkmodellene (LLM) som ligger bak ChatGPT. Dette ville kreve «overdrevent» energiforbruk, sier han.
Samtidig er det ikke alltid mulig å gå på kompromiss med ytelsen. Hvis du for eksempel kjører en selvkjørende bil med kamera, er det viktig at ytelsen er så god som mulig for å unngå ulykker.
– Men i noen tilfeller har vi også sett energieffektive modeller som ikke har dårligere ytelse, sier Selvan.

Fremtiden for kunstig intelligens
Så kan bransjen begynne å implementere mer energieffektive modeller nå?
Ifølge Raghavendra Selvan er det fortsatt langt frem:
For det første er det dyrt å gjøre lignende studier på andre modeller, selv om forskere har vist en effektiv måte å gjøre det på.
For det andre finnes det ikke mange verktøy for å måle energiforbruket til KI-modeller, forklarer forskeren.
– Selv om forskerne har vist noen verktøy i studien, er det ikke så enkelt at andre vil kunne implementere dem i sine egne modeller, ettersom det krever et nytt lag med måleverktøy, sier han.
For det tredje er det mangel på bevissthet om problemet. Selvan håper studien vil endre på det.
– Når vi begynner å sette tall og data på problemet, vil forhåpentligvis resten av samfunnet også begynne å vurdere energiforbruket til modellene, og ikke bare ytelsen, sier han.
Luís Cruz-Filipe mener at det begynner å bli mer oppmerksomhet rundt energiforbruket til kunstig intelligens.
– Jeg tror flere vil begynne å komme opp med mer effektive løsninger, sier han.
Dette er et problem som ikke har gått helt upåaktet hen hos KI-selskapene selv:
I januar uttalte Sam Altman, administrerende direktør i OpenAI, selskapet bak ChatGPT, at det er behov for nye energikilder for å drive fremtidens kunstige intelligens.
Referanser:
Pedram Bakhtiarifard, Raghavendra Selvan mfl.: EC-NAS: Energy Consumption Aware Tabular Benchmarks for Neural Architecture Search. International Conference on Acoustics, Speech and Signal Processing (ICASSP), Seoul, Korea, Republic of, 2024. (Sammendrag) DOI: 10.1109/ICASSP48485.2024.10448303
Alexandra Sasha Luccioni mfl.: Power Hungry Processing: Watts Driving the Cost of AI Deployment. arXiv, 2023. DOI: 10.48550/arXiv.2311.16863
Pengfei Li mfl.: Making AI Less «Thirsty»: Uncovering and Addressing the Secret Water Footprint of AI Models. arXiv, 2023. DOI: 10.48550/arXiv.2304.03271
© Videnskab.dk. Oversatt av Lars Nygaard for forskning.no. Les originalsaken på videnskab.dk her.