Annonse

Denne artikkelen er produsert og finansiert av Universitetet i Sørøst-Norge - les mer.

KI-verktøy kan forsterke forskjeller i skolen

En ny studie viser at det kan finnes en skjult skjevhet i utdanningssystemet.

KI kan kan videreføre forskjeller mellom kjønn, etnisitet og sosial bakgrunn – uten at noen merker det.
Publisert

En ny internasjonal forskningsstudie avdekker hvordan KI-verktøy i utdanning kan videreføre eller forsterke eksisterende forskjeller.

Det gjelder blant annet forskjeller mellom kjønn, etniske grupper og sosioøkonomiske bakgrunner.

Professor Anh Nguyen-Duc ved USN Handelshøyskolen på Universitetet i Sørøst-Norge sier funnene fra utlandet bør få konsekvenser for utdanningssektoren her hjemme.

– Vi kan ikke ta i bruk slike verktøy og tro at de automatisk er rettferdige, for det er de ikke. Det er urettferdig hvis en algoritme gir lavere score til en elev eller student, bare fordi hun er jente eller har et annet morsmål, sier Nguyen-Duc.

– Vi kan ikke ta i bruk slike verktøy og tro at de automatisk er rettferdige, for det er de ikke, sier professor Anh Nguyen-Duc.

KI får trøbbel om du både er kvinne og ufør

Han forteller at problemene oppstår når kunstig intelligens og maskinlæring må forholde seg til flere faktorer samtidig.

De håndterer balanse mellom for eksempel menn og kvinner, mellom uføre og mennesker som ikke er uføre, eller mellom mennesker fra Afrika og mennesker fra Europa.

– Men i praksis har jo folk mange karakteristikker, og det er når disse kombineres at det ikke går bra. Det er derfor et stort behov for metoder som kan håndtere flere typer skjevhet på én gang, sier Anh Nguyen-Duc.

Han hadde en mistanke om at systemer basert på maskinlæring og KI kan være urettferdige. At de kan videreføre forskjeller mellom kjønn, etnisitet og sosial bakgrunn – uten at noen merker det.

Dette kalles skjult skjevhet. Det betyr at systemet i så fall behandler elever og studenter ulikt, selv om det ikke er meningen. Det kan få store konsekvenser for dem det gjelder.

Utviklet sin egen metode

Sammen med forskere fra Vietnam gikk Anh Nguyen-Duc derfor gjennom 63 internasjonale forskningsartikler om rettferdighet i KI-systemer brukt i utdanning.

Gjennomgangen viser at mange systemer kan være skjeve – og at det er behov for bedre metoder for å sikre rettferdighet.

Fordi problemene var så åpenbare, bestemte forskerne seg for å gjøre noe med det.

– Vi analyserte svakhetene i eksisterende metoder, og utviklet så vår egen metode, sier Nguyen-Duc.

Den nye metoden kaller de FAIREDU. I en egen forskingsartikkel forklarer de metoden. Den tar hensyn til det som kalles interseksjonell rettferdighet – altså hvordan flere sårbare faktorer virker sammen, som kjønn og sosial bakgrunn.

Systemet ble mer rettferdig

– Vi ser ikke bare på én ting, men på hvordan ulike faktorer påvirker hverandre. Det gir et mer rettferdig system, sier Anh Nguyen-Duc.

FAIREDU ble testet på ekte datasett fra utdanningssektoren. Resultatene ble sammenlignet med tidligere metoder. Den nye metoden ga bedre balanse mellom rettferdighet og nøyaktighet.

– Vi klarte å forbedre rettferdigheten uten å ofre modellens ytelse, sier Nguyen-Duc.

FAIREDU bruker også syntetiske data – altså kunstig genererte data – for å kompensere for mangler i ekte datasett. Dette gjør det mulig å teste rettferdighet selv når vi ikke har full informasjon, forteller Nguyen-Duc.

Kan føre til forskjeller i elevenes framtidsmuligheter

– Utdanning er grunnmuren i ethvert samfunn. Hvis beslutningsstøttesystemene ikke er nøytrale, kan det føre til varige forskjeller i elevenes og studentenes fremtidsmuligheter, sier forskeren.

Metoden de har utviklet bidrar til å gjøre slike systemer mer rettferdige og inkluderende. 

Det vil være verdifullt for skoleeiere, utdanningsmyndigheter og teknologiselskaper som utvikler KI-løsninger for utdanningsformål, utdyper Anh Nguyen-Duc.

Den nye studien viser at det er mulig å gjøre KI mer rettferdig – men det krever innsats. Anh Nguyen-Duc håper at FAIREDU og lignende metoder kan bidra til en mer inkluderende skolehverdag.

– Vi må sikre at teknologien jobber for alle – ikke bare for de som allerede har fordeler, sier professoren.

Referanser:

Nga Pham, Anh Nguyen-Duc mfl.: Fairness for machine learning software in education: A systematic mapping study. Journal of Systems and Software, 2025. Doi.org/10.1016/j.jss.2024.112244

Nga Pham, Anh Nguyen-Duc mfl.: FAIREDU: A multiple regression-based method for enhancing fairness in machine learning models for educational Applications. Expert Systems with Applications, 2025. Doi.org/10.1016/j.eswa.2024.126219

 

Powered by Labrador CMS