I det siste har du kanskje sett en video på nettet som du ikke helt greier å se om er ekte eller ikke?
OpenAI, selskapet bak ChatGPT, lanserte nemlig nylig en ny modell for video- og lydgenerering: Sora 2.
KI-verktøyet er en tekst-til-video-modell som lærer ved å koble ord og bilder sammen gjennom enorme mengder data.
Sora er dermed i stand til å generere videoer av en katt som baker kake, ved å se på datamateriale av katter, kaker og mennesker som baker.
– Den setter sammen disse elementene og skaper et overraskende resultat, med tanke på at det ikke finnes noen ekte videoer av katter som baker kaker, forteller Gabriel de Seta, KI-forsker ved Universitetet i Bergen.
Bildet er KI-generert: Sora 2 er ikke tilgjengelig i Norge ennå, men OpenAI sin chatbot ChatGPT kan generere bilder basert på tekstinstrukser.(Illustrasjon: ChatGPT, prompt: «Katt som baker kake»
Oppleves som mer realistisk
De nyeste KI-videoene ser veldig realistiske ut. Hvordan går det an? Ifølge de Seta kommer det av at utviklerne har finjustert modellen til å ligne mer på virkelige formater.
Modellen etterligner selfie-videoer, overvåkningskameraer og morsomme klipp som har gått viralt på sosiale medier.
– Siden det føles kjent ut blir det mer troverdig, forklarer han.
Ifølge forskeren handler det også delvis om nyhetseffekt.
– Hver gang en ny modell blir lansert oppleves den som mer realistisk. Fordi vi ikke er vant med de nye justeringene, lar vi oss lettere lure.
KI-teknologien tar stadig store sprang, og de Seta mener det allerede finnes videoer som er så realistiske at det ikke er mulig å se at videoen er laget av kunstig intelligens.
– Men disse videoene krever fortsatt ganske mye innsats. Dersom du gir modellen enkle instrukser, kan resultatet bli ganske ujevnt.
De Seta forteller at de fleste videoene av KI-genererte mennesker og dyr fortsatt kan bevege seg på litt unaturlige måter og at objekter kan forandre form eller plass når kameraet flytter seg.
I tillegg forteller de Seta at KI-videoene bare er et par sekunder lange. En lengre KI-video vil bestå av flere korte snutter som er satt sammen.
– Dette kan være tegn som avslører at videoen er laget av kunstig intelligens, forteller forskeren.
Han advarer likevel mot å stole blindt på slike tegn fordi teknologien raskt blir bedre og bedre.
Annonse
De Setas beste tips for å lære å avsløre KI-videoer er derfor å bruke verktøyet selv.
– Ved å leke med verktøyet og se hva det kan gjøre, blir du bedre rustet til å gjenkjenne videoene den produserer. Det blir litt som å vaksinere seg, legger han til.
Byr på nye utfordringer
Sammen med utviklingen av KI-verktøy vokser stadig bekymringen for dens egenskap til å spre desinformasjon.
De Seta forteller at KI-modeller har blitt brukt til å spre desinformasjon i mange år, men at forskning tyder på at KI ikke nødvendigvis er mer effektiv enn tradisjonelle metoder for å spre desinformasjon.
– Det som likevel er helt sikkert, er at KI skaper mye usikkerhet.
De Seta forteller om fenomenet forskere har valgt å kalle «the liars dividend», løgnerens utbytte på norsk.
– Det at alt potensielt kan være falskt, gjør at publikum må bruke mer tid og krefter på å etterprøve innhold.
– KI har enn så lenge ikke hatt stor suksess med å spre desinformasjon, men sprer heller store mengder tvil og mistanke, avslutter de Seta.