Slik kan du avsløre KI-videoer, ifølge forsker

– Hver gang en ny modell blir lansert oppleves den som mer realistisk, sier Gabriele de Seta.

Gabriele de Seta forsker på hvordan kunstig intelligens påvirker livene våre.
Publisert

I det siste har du kanskje sett en video på nettet som du ikke helt greier å se om er ekte eller ikke?

OpenAI, selskapet bak ChatGPT, lanserte nemlig nylig en ny modell for video- og lydgenerering: Sora 2. 

KI-verktøyet er en tekst-til-video-modell som lærer ved å koble ord og bilder sammen gjennom enorme mengder data. 

Sora er dermed i stand til å generere videoer av en katt som baker kake, ved å se på datamateriale av katter, kaker og mennesker som baker. 

– Den setter sammen disse elementene og skaper et overraskende resultat, med tanke på at det ikke finnes noen ekte videoer av katter som baker kaker, forteller Gabriel de Seta, KI-forsker ved Universitetet i Bergen. 

Bildet er KI-generert: Sora 2 er ikke tilgjengelig i Norge ennå, men OpenAI sin chatbot ChatGPT kan generere bilder basert på tekstinstrukser.

Oppleves som mer realistisk

De nyeste KI-videoene ser veldig realistiske ut. Hvordan går det an? Ifølge de Seta kommer det av at utviklerne har finjustert modellen til å ligne mer på virkelige formater. 

Modellen etterligner selfie-videoer, overvåkningskameraer og morsomme klipp som har gått viralt på sosiale medier. 

– Siden det føles kjent ut blir det mer troverdig, forklarer han. 

Ifølge forskeren handler det også delvis om nyhetseffekt.

– Hver gang en ny modell blir lansert oppleves den som mer realistisk. Fordi vi ikke er vant med de nye justeringene, lar vi oss lettere lure.

– Litt som å vaksinere seg 

KI-teknologien tar stadig store sprang, og de Seta mener det allerede finnes videoer som er så realistiske at det ikke er mulig å se at videoen er laget av kunstig intelligens.

– Men disse videoene krever fortsatt ganske mye innsats. Dersom du gir modellen enkle instrukser, kan resultatet bli ganske ujevnt.  

De Seta forteller at de fleste videoene av KI-genererte mennesker og dyr fortsatt kan bevege seg på litt unaturlige måter og at objekter kan forandre form eller plass når kameraet flytter seg. 

I tillegg forteller de Seta at KI-videoene bare er et par sekunder lange. En lengre KI-video vil bestå av flere korte snutter som er satt sammen. 

– Dette kan være tegn som avslører at videoen er laget av kunstig intelligens, forteller forskeren.

Han advarer likevel mot å stole blindt på slike tegn fordi teknologien raskt blir bedre og bedre. 

De Setas beste tips for å lære å avsløre KI-videoer er derfor å bruke verktøyet selv. 

– Ved å leke med verktøyet og se hva det kan gjøre, blir du bedre rustet til å gjenkjenne videoene den produserer. Det blir litt som å vaksinere seg, legger han til. 

Byr på nye utfordringer 

Sammen med utviklingen av KI-verktøy vokser stadig bekymringen for dens egenskap til å spre desinformasjon.

De Seta forteller at KI-modeller har blitt brukt til å spre desinformasjon i mange år, men at forskning tyder på at KI ikke nødvendigvis er mer effektiv enn tradisjonelle metoder for å spre desinformasjon. 

– Det som likevel er helt sikkert, er at KI skaper mye usikkerhet. 

De Seta forteller om fenomenet forskere har valgt å kalle «the liars dividend», løgnerens utbytte på norsk. 

– Det at alt potensielt kan være falskt, gjør at publikum må bruke mer tid og krefter på å etterprøve innhold. 

– KI har enn så lenge ikke hatt stor suksess med å spre desinformasjon, men sprer heller store mengder tvil og mistanke, avslutter de Seta. 

LES OGSÅ

Opptatt av klima og miljø?

Her får du jevnlige utslipp av nyheter fra forskning.no om klimaendringer, miljø, forurensning og truede arter.

Meld meg på nyhetsbrev



Powered by Labrador CMS