Denne artikkelen er produsert og finansiert av Universitetet i Sørøst-Norge - les mer.
KI-verktøy kan forsterke forskjeller i skolen
En ny studie viser at det kan finnes en skjult skjevhet i utdanningssystemet.

En ny internasjonal forskningsstudie avdekker hvordan KI-verktøy i utdanning kan videreføre eller forsterke eksisterende forskjeller.
Det gjelder blant annet forskjeller mellom kjønn, etniske grupper og sosioøkonomiske bakgrunner.
Professor Anh Nguyen-Duc ved USN Handelshøyskolen på Universitetet i Sørøst-Norge sier funnene fra utlandet bør få konsekvenser for utdanningssektoren her hjemme.
– Vi kan ikke ta i bruk slike verktøy og tro at de automatisk er rettferdige, for det er de ikke. Det er urettferdig hvis en algoritme gir lavere score til en elev eller student, bare fordi hun er jente eller har et annet morsmål, sier Nguyen-Duc.

KI får trøbbel om du både er kvinne og ufør
Han forteller at problemene oppstår når kunstig intelligens og maskinlæring må forholde seg til flere faktorer samtidig.
De håndterer balanse mellom for eksempel menn og kvinner, mellom uføre og mennesker som ikke er uføre, eller mellom mennesker fra Afrika og mennesker fra Europa.
– Men i praksis har jo folk mange karakteristikker, og det er når disse kombineres at det ikke går bra. Det er derfor et stort behov for metoder som kan håndtere flere typer skjevhet på én gang, sier Anh Nguyen-Duc.
Han hadde en mistanke om at systemer basert på maskinlæring og KI kan være urettferdige. At de kan videreføre forskjeller mellom kjønn, etnisitet og sosial bakgrunn – uten at noen merker det.
Dette kalles skjult skjevhet. Det betyr at systemet i så fall behandler elever og studenter ulikt, selv om det ikke er meningen. Det kan få store konsekvenser for dem det gjelder.
Utviklet sin egen metode
Sammen med forskere fra Vietnam gikk Anh Nguyen-Duc derfor gjennom 63 internasjonale forskningsartikler om rettferdighet i KI-systemer brukt i utdanning.
Gjennomgangen viser at mange systemer kan være skjeve – og at det er behov for bedre metoder for å sikre rettferdighet.
Fordi problemene var så åpenbare, bestemte forskerne seg for å gjøre noe med det.
– Vi analyserte svakhetene i eksisterende metoder, og utviklet så vår egen metode, sier Nguyen-Duc.
Den nye metoden kaller de FAIREDU. I en egen forskingsartikkel forklarer de metoden. Den tar hensyn til det som kalles interseksjonell rettferdighet – altså hvordan flere sårbare faktorer virker sammen, som kjønn og sosial bakgrunn.
Systemet ble mer rettferdig
– Vi ser ikke bare på én ting, men på hvordan ulike faktorer påvirker hverandre. Det gir et mer rettferdig system, sier Anh Nguyen-Duc.
FAIREDU ble testet på ekte datasett fra utdanningssektoren. Resultatene ble sammenlignet med tidligere metoder. Den nye metoden ga bedre balanse mellom rettferdighet og nøyaktighet.
– Vi klarte å forbedre rettferdigheten uten å ofre modellens ytelse, sier Nguyen-Duc.
FAIREDU bruker også syntetiske data – altså kunstig genererte data – for å kompensere for mangler i ekte datasett. Dette gjør det mulig å teste rettferdighet selv når vi ikke har full informasjon, forteller Nguyen-Duc.
Kan føre til forskjeller i elevenes framtidsmuligheter
– Utdanning er grunnmuren i ethvert samfunn. Hvis beslutningsstøttesystemene ikke er nøytrale, kan det føre til varige forskjeller i elevenes og studentenes fremtidsmuligheter, sier forskeren.
Metoden de har utviklet bidrar til å gjøre slike systemer mer rettferdige og inkluderende.
Det vil være verdifullt for skoleeiere, utdanningsmyndigheter og teknologiselskaper som utvikler KI-løsninger for utdanningsformål, utdyper Anh Nguyen-Duc.
Den nye studien viser at det er mulig å gjøre KI mer rettferdig – men det krever innsats. Anh Nguyen-Duc håper at FAIREDU og lignende metoder kan bidra til en mer inkluderende skolehverdag.
– Vi må sikre at teknologien jobber for alle – ikke bare for de som allerede har fordeler, sier professoren.
Referanser:
Nga Pham, Anh Nguyen-Duc mfl.: Fairness for machine learning software in education: A systematic mapping study. Journal of Systems and Software, 2025. Doi.org/10.1016/j.jss.2024.112244
Nga Pham, Anh Nguyen-Duc mfl.: FAIREDU: A multiple regression-based method for enhancing fairness in machine learning models for educational Applications. Expert Systems with Applications, 2025. Doi.org/10.1016/j.eswa.2024.126219
Les også disse sakene fra USN:
-
Se hva som skjedde da førsteklassingene brukte halve dagen på lek
-
Når rollene krasjer: Hva skjer med identiteten i møte med Nav?
-
Helsesykepleiere i skolen bruker mest tid på papirarbeid og møter
-
Derfor bygde fiolinforskeren sin egen laserskanner
-
Slik kan KI forutse og forhindre skipsulykker
-
Studie: De som er opptatt av kildesortering gjør like mange feil som alle andre