Denne artikkelen er produsert og finansiert av UiT Norges arktiske universitet - les mer.

Derfor trenger vi en lov for kunstig intelligens

Loven skal passe på at vi bruker KI på en trygg måte, forklarer forsker Eirik Agnalt Østmo. 

Norske myndigheter er i gang med å lage en egen norsk KI-lov.
Publisert

Se for deg at du lever i et samfunn der kunstig intelligens (KI) brukes til å spionere på deg i norsktimen. Hva hadde du tenkt om det?

Eller hva om teknologien ble brukt til å rangere din verdi som menneske ut ifra hvordan du oppfører deg på skolen, fotballtrening eller fritiden?

I 2024 vedtok EU verdens første lov for KI. Den skal bestemme hvordan KI skal utvikles og brukes i EU- og EØS-landene på en forsvarlig måte og dermed unngå disse skrekkeksemplene. Hele lovverket skal være i bruk i løpet av 2026.

I dag arbeider myndighetene med å lage en egen norsk KI-lov. Den vil bli ganske lik EU sin lov, men skal tilpasses norske forhold og regler.

KI-ekspert Eirik Agnalt Østmo sier KI-loven handler om å ta kontroll på en teknologi som utvikler seg i et hurtig tempo.

Å ivareta trygghet

Eirik Agnalt Østmo forsker ved KI-senteret SFI Visual Intelligence ved UiT. Han sier at loven blir viktig for at vi skal føle oss trygge i et samfunn der KI brukes på stadig flere områder.

Det handler om å ta kontroll på en teknologi som utvikler seg i et hurtig tempo – og forhindre at den misbrukes.

– KI utvikler seg ekstremt raskt og vi har enda ikke sett alt teknologien kan gjøre. Derfor trenger vi regler for hvordan KI-systemene utvikles og brukes, forteller han.

Ansvarliggjøre KI-utviklerne

KI-teknologi kan hjelpe oss på mange måter. Likevel kan noen systemer utgjøre en risiko for menneskers rettigheter, helse og velvære.

Heldigvis er ikke alle typer KI like farlige – slik som den som foreslår hvilken film du bør se på Netflix. Derfor deler KI-loven systemene inn i fire ulike risikokategorier: minimal, begrenset, høy og uakseptabel risiko.

Jo større risiko et KI-system utgjør, desto strengere krav må utviklerne følge.

– Dette bidrar til å ansvarliggjøre dem som leverer KI-løsningene, og bestemmer hvordan systemene skal brukes etter hvilken risikokategori de har, forklarer Østmo.

Uønskede KI-systemer

Noen KI-systemer er uakseptable. De som kan brukes til å rangere folk som gode eller dårlige borgere basert på oppførsel, blir forbudt å bruke i Norge. Forbudet sikrer at teknologien ikke brukes til å krenke privatlivet vårt.

– Her er det snakk om systemer som har et såpass stort skadepotensial at vi ikke vil ha de i samfunnet, sier Østmo.

Forbudet gjør også at teknologien ikke kan brukes mot ytringsfriheten vår – for eksempel til å overvåke folk som deltar i politiske markeringer eller demonstrasjoner.

Tidligere i 2025 planla Ungarns regjering å bruke KI til å identifisere og gi bot til de som var med i Pride-feiringer.

– Folk må ha rett til å si og mene det de vil uten frykt for å bli overvåket eller registrert. Derfor bør ikke KI brukes slik, forteller Østmo.

En lov skal sikre at teknologien ikke brukes til å krenke privatlivet vårt.

Motvirke forskjellsbehandling

I dag brukes KI til å bestemme hvem som skal få boliglån eller å finne den beste jobbkandidaten. Disse er eksempler på KI-systemer med høy risiko.

Systemene kan gjøre disse oppgavene raskere og enklere. De kan også forskjellsbehandle mennesker ut ifra kjønn, hudfarge eller seksuell legning. 

Det skjer når systemene trenes på historiske data – det vil si tekst, bilder og videoer som kan inneholde gammeldagse holdninger og fordommer.

Et KI-system fra Amazon foretrakk jobbsøknader skrevet av menn, fordi det er flest menn som søker på og jobber i IT-relaterte yrker. Et KI-basert kredittkortsystem fra Apple ble gransket i 2019 fordi det ga lavere kredittkortgrenser til kvinner.

KI-loven blir viktig for at systemene ikke skal diskriminere noen.

– KI-teknologi må fungere like godt på alle mennesker, sier Østmo.

I 2019 begynte et KI-system fra Amazon å foretrekke jobbsøknader skrevet av menn, fordi det er flest menn som søker på og jobber i IT-relaterte yrker. KI-loven blir viktig for å unngå at systemene diskriminerer oss.

Begrense falske nyheter

KI-chatboter etterligner menneskelig intelligens på en svært overbevisende måte. Sosiale medier som TikTok kan vise falske videoer som ser overraskende ekte ut. 

Derfor er det ikke alltid enkelt å vite når man prater med en maskin eller et menneske, eller å skille falsk informasjon fra virkelighet.

«Åpenhet» er et sentralt stikkord i KI-loven. Det betyr at utviklerne må passe på at vi til enhver tid vet at vi snakker med KI. Derfor er det viktig med tydelig merking av det som er laget av KI.

– Hvis vi vet at vi snakker med en maskin, eller at et bilde er laget av KI kan det hjelpe oss å være mer kritiske til informasjonen. Slik kan det hjelpe mot falske nyheter og innhold på sosiale medier og internett, forklarer Østmo.

Trygg utvikling av KI

KI-loven skal gjøre teknologien trygg, men mange frykter at strenge regler kan bremse utviklingen – også av KI som kan hjelpe leger å oppdage sykdommer.

Østmo sier at KI-utviklingen må være trygg. Teknologien skal være bra for folk. Vi må ikke slippe fri uferdige og skadelige systemer. 

– Om vi ikke har klare regler for hva som er greit å bruke KI til og ikke, kan teknologiselskapene selv bestemme. Derfor er det viktig med en lov som gir oss en trygg utvikling, sier Østmo.

Om risikokategoriene

KI-loven stiller ulike krav til KI-systemer på bakgrunn av risikonivå.

Minimal risiko: KI-systemer som innebærer ingen eller minimal risiko. KI-loven stiller ingen krav til slike systemer. De fleste KI-systemer faller innenfor denne kategorien.

Begrenset risiko: KI-systemer som må etterleve krav til åpenhet, det vil si at brukeren skal gjøres oppmerksom på at den samhandler med KI.

Høy risiko: KI-systemer som kan føre til inngrep i menneskers grunnleggende rettigheter og som må følge strengere krav.

Uakseptabel risiko: KI-systemer som strider mot grunnleggende verdier og menneskerettigheter, for eksempel ved å manipulere, utnytte folks sårbarheter eller kategorisere mennesker på måter som medfører negative konsekvenser for dem.

Kilde: regjeringen.no

Powered by Labrador CMS