Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.
Forsker: – KI svekker vår dømmekraft
KIs overlegne evne til å formulere tanker og påstander for oss, svekker vår dømmekraft og evne til å tenke kritisk, mener medieprofessor Petter Bae Brandtzæg.
Studier viser at selv om vi liker å si vi er kritiske, så følger vi rådene til KI.(Foto: Kurt Ahmet / Unsplash)
Mens ingen visste om Chat GPT for bare tre år siden, bruker 800 millioner mennesker teknologien i dag.
Vi tar i bruk kunstig intelligens (KI) i en hastighet som slår alle rekorder, og bruk av KI er blitt den nye normalen.
Vi kan ikke velge bort KI
Mange KI-forskere, som Petter Bae Brandtzæg, er skeptiske. KI er en teknologi som griper inn i vår evne til å tenke, lese og skrive, mener han.
– Vi kan langt på vei velge bort sosiale medier, men ikke KI. Det er integrert i sosiale medier, i Word, nettaviser, e-postprogrammer og lignende. Vi blir alle partnere med KI – enten vi vil eller ikke, sier Brandtzæg.
Professoren i medieinnovasjon ved Universitetet i Oslo har sett på hvordan KI påvirker oss i det nylig avsluttede forskningsprosjektet En AI-drevet offentlighet.
Ytringsfrihetskommisjonen hoppet over KI
– Vi må ikke glemme at KI ikke er et offentlig, demokratisk prosjekt. Det er kommersielt, og bak står noen få amerikanske selskaper og milliardærer, sier forsker Petter Bae Brandtzæg.(Foto: Lisbet Jære)
Prosjektet, i samarbeid med SINTEF, er det første av sitt slag i Norge som har forsket på generativ KI, det vil si KI som lager innhold, og hvordan det påvirker både brukere og offentligheten.
Bakgrunnen var at Brandtzæg reagerte på at rapporten til Ytringsfrihetskommisjonen, som ble lagt fram i 2022, ikke tok opp KIs innvirkning på samfunnet i tilstrekkelig grad.
I hvert fall ikke generativ KI.
KI påvirker hvordan vi tenker og forstår verden
– Det er studier som viser at KI kan svekke kritisk tenkning. Det påvirker språket vårt, hvordan vi tenker, forstår verden, og vår moralske dømmekraft, sier Brandtzæg.
Få måneder etter ytringsfrihetsrapporten ble ChatGPT lansert, noe som gjorde forskingsprosjektet hans enda mer aktuelt.
– Vi ønsket derfor å forstå hvordan slik generativ KI påvirker samfunnet, og særlig hvordan KI endrer sosiale strukturer og relasjoner, sier forskeren.
Grensene mellom mennesker og systemer viskes ut
Det er et relativt nytt felt som enda mangler teori, og forskerne har derfor lansert konseptet «KI-individualisme». Det springer ut fra begrepet «nettverks-individualisme» som ble lansert på begynnelsen av 2000-tallet.
Da var behovet å kunne å si noe om hvordan smarttelefoner, internett og sosiale medier gjorde det mulig for folk å lage nettverk utover familie, venner og naboer.
Nettverksindividualismen har sett på hvordan teknologi visker ut tid og sted, forklarer forskeren.
Annonse
Men med KI skjer det noe helt nytt: Grensene mellom mennesker og systemer begynner også å utviskes, siden KI tar på seg roller som tidligere tilhørte mennesker.
KI kan dekke våre sosiale behov – hva med fellesskapet?
– KI kan også dekke personlige, sosiale og emosjonelle behov, sier Brandtzæg.
Han har bakgrunn fra psykologi, og har tidligere forsket på hvilke personlige bånd mennesker får til chatboten Replika. ChatGPT og lignende sosiale KI-modeller kan gi umiddelbar, personlig hjelp til alt mulig.
– Det forsterker individualismen i samfunnet, fordi vi i mindre grad trenger hjelp fra andre rundt oss. Det kan styrke menneskets autonomi, på bekostning av felleskapet. Skiftet mot KI-individualisme kan gjøre at de sosiale strukturene i samfunnet endrer seg, sier forskeren.
Han mener konseptet «KI-individualisme» tilbyr et nytt perspektiv for å forstå og forklare hvordan relasjoner i samfunnet endrer seg med KI.
– Vi bruker det som en relasjonell partner, som en samarbeidsparter i jobb, til å ta beslutninger, sier Brandtzæg.
Elever velger chatbot
Prosjektet bygger på flere undersøkelser, blant dem en spørreundersøkelse sendt til 166 elever i videregående skole om hvordan de bruker KI.
«ChatGPT og MyAI går rett på sak angående det vi spør om, og da slipper du å lete deg i hjel i boken eller på nettet», sa en videregående elev om fordelene med KI.
«ChatGPT hjelper meg med problemer, jeg kan åpne meg og snakke med den om vanskelige ting, får trøst og gode råd», svarte en annen elev.
I en blindtest viste det seg at mange foretrakk KI-chatbot heller enn en fagperson når de hadde spørsmål om mental helse.
Annonse
Over halvparten foretrakk chatbot, under 20 prosent svarte at de foretrakk en fagperson, mens 30 prosent svarte begge.
– Dette viser hvor kraftig denne teknologien er, og at vi noen ganger foretrekker KI-generert innhold fremfor menneskeskapt innhold, sier Brandtzæg.
«Modellmakt» – som kan hallusinere
Teorien om «modellmakt» er et annet konsept de har lansert. Det bygger på en teori om maktforhold utviklet av sosiologen Stein Bråten for 50 år siden.
Modellmakt er den innflytelsen en får ved å ha en modell av virkeligheten med gjennomslagskraft, som andre må akseptere i mangel på egne, alternative modeller med tilsvarende kraft. Dette ifølge artikkelen «Modellmakt og styring» (nettavisen Panorama).
På 70-tallet dreide det seg om hvordan medier, vitenskap, ulike grupper med autoritet, kunne påvirke mennesker, og hadde modellmakt. Nå er det KI.
Brandtzægs poeng er at KI-generert innhold ikke lenger opererer i et vakuum. Det spres ut over alt, i offentlige rapporter, i forskning, i oppslagsverk.
KI spres over alt
Når vi gjør Google-søk, får vi først opp en sammenstilling skapt av KI.
– Det legges et slags KI-lag over det hele. Vi antyder at modellkraften til sosial KI kan føre til modellmonopoler som påvirker menneskelig tro og atferd betydelig, sier forskeren.
Fordi KI-modeller, som ChatGPT, er basert på dialog, kaller de dem sosial KI, utyper han. Men hvor genuin er en dialog med en maskin, som er matet med enorme mengder tekst?
– Sosial KI kan fremme en illusjon av ekte samtale og uavhengighet – en pseudo-autonomi gjennom pseudo-dialog, sier Brandtzæg.
Annonse
KI hadde diktet opp kilder
91 prosent av nordmenn er bekymret for spredning av falsk informasjon fra KI-tjenester som Copilot, ChatGPT og Gemini, ifølge en undersøkelse fra Nasjonal Kommunikasjonsmyndighet (NKOM) fra august 2025.
KI kan hallusinere. Et kjent eksempel er at en rapport Tromsø kommune brukte som grunnlag til et forslag om å legge ned åtte skoler, var bygget på kilder KI hadde diktet opp.
Dermed kan KI bidra til feilinformasjon og undergrave brukernes tillit til både AI, tjenesteleverandører og offentlige institusjoner.
Hvor mye feilinformasjon finnes det egentlig?
Brandtzæg spør seg hvor mange andre mindre kommuner og offentlige institusjoner som har gjort det samme, og er urolig for spredning av feilinformasjon.
Han og forsker-kollegaene har gått gjennom ulike studier som peker på at selv om vi liker å si vi er kritiske, så følger vi likevel rådene til KI.
– Det er kanskje ikke så rart vi følger rådene. Det er første gang i historien vi snakker med en slags allmektig størrelse som har lest så mye. Men det gir en modellmakt som er skummel. Vi tror vi er i en dialog, at det er et samarbeid, men det er enveiskommunikasjon, sier han.
Amerikansk monokultur spres
Et annet aspekt med denne modellmakten er at KI-selskapene sitter i USA, og bygger på enorme mengder amerikansk data, advarer forskeren.
– Vi regner med at så lite som 0,1 promille er norsk i KI-modeller som ChatGPT. Det gjør at det er amerikansk informasjon vi forholder oss til, som kan påvirke våre verdier og beslutninger.
Det er en monokultur styrt av amerikansk tenkning, sier Brandtzæg.
Noen få selskaper og milliardærer står bak
Annonse
Hva betyr det for mangfold? Prinsippet er at «the winner takes it all» – KI tar ikke minoritetshensyn, påpeker Brandtzæg.
Verden har aldri før stått overfor en så inngripende teknologi, noe som gjør at den må reguleres og balanseres opp mot reelle menneskelige behov og verdier, mener han.
– Vi må ikke glemme at KI ikke er et offentlig, demokratisk prosjekt. Det er kommersielt, og bak står noen få amerikanske selskaper og milliardærer, sier Brandtzæg.