UiT Norges arktiske universitetUiTNorges arktiske universitet
Publisert
Se for deg at du lever i et samfunn der
kunstig intelligens (KI) brukes til å spionere på deg i norsktimen. Hva hadde
du tenkt om det?
Eller hva om teknologien ble brukt til å rangere din verdi som menneske ut ifra hvordan du oppfører deg på skolen, fotballtrening eller fritiden?
I 2024 vedtok EU verdens første lov for KI. Den skal bestemme hvordan KI skal utvikles og brukes i EU- og EØS-landene på en forsvarlig måte og dermed unngå disse skrekkeksemplene. Hele lovverket skal være i bruk i løpet av 2026.
I dag arbeider myndighetene med å lage en egen norsk KI-lov. Den vil bli ganske lik EU sin lov, men skal tilpasses norske forhold og regler.
KI-ekspert Eirik Agnalt Østmo sier KI-loven handler om å ta kontroll på en teknologi som utvikler seg i et hurtig tempo.(Foto: UiT)
Å ivareta trygghet
Eirik Agnalt Østmo forsker ved
KI-senteret SFI Visual
Intelligence ved UiT. Han sier at loven blir viktig for at vi
skal føle oss trygge i et samfunn der KI brukes på stadig flere
områder.
Det handler om å ta kontroll på en
teknologi som utvikler seg i et hurtig tempo – og forhindre at den
misbrukes.
– KI utvikler seg ekstremt raskt og vi har enda ikke sett alt
teknologien kan gjøre. Derfor trenger vi regler for hvordan
KI-systemene utvikles og brukes, forteller han.
Ansvarliggjøre KI-utviklerne
KI-teknologi kan hjelpe oss på
mange måter. Likevel kan noen systemer utgjøre en risiko for menneskers rettigheter,
helse og velvære.
Heldigvis er ikke
alle typer KI like farlige – slik som den som foreslår hvilken film du bør se
på Netflix. Derfor deler KI-loven systemene inn i fire ulike risikokategorier:
minimal, begrenset, høy og uakseptabel risiko.
Jo større risiko et KI-system utgjør,
desto strengere krav må utviklerne følge.
– Dette bidrar til å ansvarliggjøre dem
som leverer KI-løsningene, og bestemmer hvordan systemene skal brukes etter
hvilken risikokategori de har, forklarer Østmo.
Uønskede KI-systemer
Noen KI-systemer er uakseptable. De som kan brukes til å rangere folk som gode eller dårlige borgere basert
på oppførsel, blir forbudt å bruke i Norge. Forbudet sikrer at teknologien
ikke brukes til å krenke privatlivet vårt.
– Her er det snakk om systemer som
har et såpass stort skadepotensial at vi ikke vil ha de i samfunnet, sier
Østmo.
Forbudet gjør også at teknologien ikke kan brukes mot ytringsfriheten vår – for eksempel til å overvåke folk som deltar i politiske markeringer eller demonstrasjoner.
Tidligere i 2025 planla Ungarns regjering å bruke KI til
å identifisere og gi bot til de som var med i Pride-feiringer.
Annonse
– Folk må ha rett til å si og mene det de
vil uten frykt for å bli overvåket eller registrert. Derfor bør ikke KI brukes
slik, forteller Østmo.
En lov skal sikre at teknologien ikke brukes til å krenke privatlivet vårt.(Foto: Mostphotos)
Motvirke forskjellsbehandling
I dag brukes KI til å bestemme hvem som
skal få boliglån eller å finne den beste jobbkandidaten. Disse er eksempler på
KI-systemer med høy risiko.
Systemene kan gjøre disse
oppgavene raskere og enklere. De kan også forskjellsbehandle
mennesker ut ifra kjønn, hudfarge eller seksuell legning.
Det skjer når systemene trenes på historiske data – det vil si tekst, bilder og
videoer som kan inneholde gammeldagse holdninger og fordommer.
Et KI-system fra
Amazon foretrakk jobbsøknader skrevet av menn, fordi det er flest menn som
søker på og jobber i IT-relaterte yrker. Et KI-basert kredittkortsystem fra
Apple ble gransket i 2019 fordi det ga lavere kredittkortgrenser til kvinner.
KI-loven blir viktig for at systemene ikke
skal diskriminere noen.
– KI-teknologi må fungere like godt på
alle mennesker, sier Østmo.
I 2019 begynte et KI-system fra Amazon å foretrekke jobbsøknader skrevet av menn, fordi det er flest menn som søker på og jobber i IT-relaterte yrker. KI-loven blir viktig for å unngå at systemene diskriminerer oss.(Foto: Mostphotos)
Begrense falske nyheter
KI-chatboter etterligner menneskelig
intelligens på en svært overbevisende måte. Sosiale medier som TikTok kan vise
falske videoer som ser overraskende ekte ut.
Derfor er det ikke alltid enkelt å
vite når man prater med en maskin eller et menneske, eller
å skille falsk informasjon fra virkelighet.
«Åpenhet» er et sentralt
stikkord i KI-loven. Det betyr at utviklerne må passe på at vi til enhver tid
vet at vi snakker med KI. Derfor er det viktig med tydelig merking av det som er laget av KI.
Annonse
– Hvis vi vet at vi snakker med en maskin,
eller at et bilde er laget av KI kan det hjelpe oss å være mer kritiske til
informasjonen. Slik kan det hjelpe mot falske nyheter og innhold på sosiale
medier og internett, forklarer Østmo.
Trygg utvikling av KI
KI-loven skal gjøre teknologien trygg, men mange frykter at strenge regler kan bremse utviklingen – også av KI som kan hjelpe leger å oppdage sykdommer.
Østmo sier at KI-utviklingen må være trygg. Teknologien skal være bra for
folk. Vi må ikke slippe fri uferdige og skadelige systemer.
– Om vi ikke har klare regler for hva som
er greit å bruke KI til og ikke, kan teknologiselskapene selv bestemme. Derfor
er det viktig med en lov som gir oss en trygg utvikling, sier Østmo.
Om risikokategoriene
KI-loven stiller ulike krav til KI-systemer på bakgrunn av risikonivå.
Minimal risiko: KI-systemer som innebærer ingen eller minimal risiko.
KI-loven stiller ingen krav til slike systemer. De fleste KI-systemer faller
innenfor denne kategorien.
Begrenset risiko: KI-systemer som må etterleve krav til åpenhet,
det vil si at brukeren skal gjøres oppmerksom på at den samhandler med KI.
Høy risiko: KI-systemer som kan føre til inngrep i menneskers
grunnleggende rettigheter og som må følge strengere krav.
Uakseptabel risiko: KI-systemer som strider mot grunnleggende verdier og
menneskerettigheter, for eksempel ved å manipulere, utnytte folks sårbarheter
eller kategorisere mennesker på måter som medfører negative konsekvenser for
dem.