– KI brukes allerede til å spre desinformasjon og styre militære operasjoner

PODCAST: Forsker advarer mot at Norge og andre små land kan bli stående på KI-sidelinjen.

Portrett av mann foran blått digitalt mønster i podcastgrafikk for episode 6.
Michael Riegler er Head of AI ved Simula Research Laboratory og professor ved Oslo Met,
Publisert

Om Grenser for KI

I denne podkasten skal vi gjennom 9 episoder utforske ulike grenser for KI. Du får høree fra ledende forskere på KI, eksperter på valgmanipulasjon og demokrati og ledende stemmer i teknologidebatten i Norge som i ulike episoder diskuterer hvilke grenser som finnes for KI, hva som kan gjøres og hva som bør gjøres.

Podkasten blir laget av Sondre Lindahl, førsteamanuensis ved institutt for informasjonsteknologi og kommunikasjon ved Høgskolen i Østfold. Lyddesign og miksing ved Oskar Emhjellen. Podkasten har fått støtte fra Fritt Ord.

Du finner podkasten blant annet på Apple podcasts og Spotify.

– KI brukes allerede til å spre desinformasjon og styre militære operasjoner. Samtidig ser vi et kappløp mellom stormaktene om å utvikle de mektigste systemene, sier forsker Michael Riegler i denne episoden av Grenser for KI. . Han er Head of AI ved Simula Research Laboratory og professor ved Oslo Met.

Han advarer mot at Norge og andre små land kan bli stående på sidelinjen. 

– Uten tilstrekkelig kompetanse risikerer vi å bli rene sluttbrukere. Avhengige av teknologigiganter som vi ikke har kontroll over, sier Riegler.

– Det gir et 1984-aktig potensial

Samtidig peker han på at KI aldri vil være 100 prosent korrekt. Modellenes svar styres av treningsdata og feil kan oppstå både i detaljer og i kontekst. 

– Ofte er det de siste 20 prosentene som er avgjørende. Der svikter systemene og derfor må vi alltid evaluere kritisk, sier han.

Et annet stort problem er overvåkning. Nye KI-assistenter og transkripsjonsverktøy gjør det mulig å lagre og analysere samtaler i detalj. 

– Det gir et 1984-aktig potensial. Plutselig kan alt vi har sagt bli brukt mot oss, sier Riegler.

Løsningen er ikke først og fremst flere forbud, men økt kompetanse i hele samfunnet, ifølge forskeren. 

– Vi må vite når og hvordan vi kan bruke KI trygt. Den viktigste grensen bør være at vi aldri aksepterer feil som «gode nok», sier han.

Opptatt av teknologi?

Følg den nyeste utviklingen innen kunstig intelligens, energi, sosiale medier og roboter med nyhetsbrev fra forskning.no.

Meld meg på

Powered by Labrador CMS