Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.

KUNSTIGE BILDER FORVIRRER: Våren 2023 reagerte mange på bildene av pave Frans i boblejakke og Donald Trump som ble arrestert.

Medieforsker: – Ikke del bilder som er laget av kunstig intelligens

AI-genererte bilder og videoer er blitt dagligdags på nett. Når blir manipulasjon og visuelt lureri et demokratisk problem?

Rett før påske dukket det opp bilder av 86 år gamle Pave Frans i en stor hvit boblejakke fra motehuset Balenciaga. Omtrent samtidig gikk flere bilder av Donald Trump som ble arrestert av amerikansk politi, viralt. Gjennom sosiale medier spredde de seg til publikum over hele verden.

Begge disse bildene var skapt av kunstig intelligens (AI). De er eksempler på hvordan man i dag med enkle grep kan skape noe som ligner på et fotografi.

Er det et problem?

– Jeg tror ikke bildene påvirker mitt syn på Donald Trump nevneverdig. Men problemet med denne type falskt innhold er at selv om det ikke beskriver noe virkelig, så påvirker det likevel vårt syn på virkeligheten når vi blir eksponert for det, sier Kristoffer Egeberg.

Han er ansvarlig redaktør for faktasjekknettstedet faktisk.no.

Fra «deepfake» til AI-genererte bilder

Spol tilbake til 1990-tallet – før sosiale medier. Så du et bilde, kunne du som oftest se hvilken TV-kanal eller avis som var avsender. Videre kunne du se hvilken dato det var publisert.

Slik er det ikke lenger.

Podcast: Manipulerte bilder

Redaktør Kristoffer Egeberg er gjest i podkasten Universitetsplassen. Der diskuterer han bildene av Trump og paven med medieforsker Liv Hausken.

Hør hele episoden her.

– I dag får mange informasjon og nyheter fra sosiale medier som ikke har noen redaktørplakat eller noe journalistisk ansvar. Dessuten gjør videreformidlingen gjennom liking og sending at skillet mellom kildene viskes ut. Det er et genuint og grunnleggende problem – som er nytt i dag, sier Hausken.

Falske nyheter ble for alvor satt på agendaen etter Trumps valgkamp i 2016. Det tok ikke lang tid før bilder og video ble tatt i bruk for å villede.

– Medieforsker Liv Hausken og Kristoffer Egeberg fra faktisk.no diskuterer hva bildemanipulasjon gjør med samfunnet – i podkasten Universitetsplassen.

– Inntil nylig har mange snakket om «deepfake». Det er manipulerte bilder og videoer hvor man klistrer et ansikt på en skuespiller. Man kan også manipulere stemmen. Du kan få dem til å si hva som helst. Mange har nok sett slike videoer med Barack Obama eller Donald Trump som sier de rareste ting for eksempel, forklarer Egeberg.

Enda mer effektivt er en enklere manipulering.

– Med det som kalles «cheapfake» bruker du virkelige bilder eller videoer, men tar dem helt ut av kontekst eller manipulerer litt.

Et kjent eksempel er en video av den amerikanske politikeren Nancy Pelosi hvor hastigheten er justert litt ned – sånn at det virker som at hun er full.

Det nyeste tilskuddet til floraen er bilder som de av paven i boblejakke og Trump med håndjern. Men var det egentlig så mye bedre før?

Fotografier har blitt manipulert siden 1846

– Det er lett å forenkle fotohistorien og si at før Photoshop, så var alle bilder fotografisk genererte. Ingen hadde tuklet med noe som helst. Men det er feil, ganske enkelt, understreker Hausken.

Hun trekker historien om bildemanipulasjon så langt tilbake som til 1846.

– Det eldste eksemplet på et teknisk manipulert bilde jeg kjenner til, er fra en britisk fotograf som reiste til Malta og lagde turistbilder. Han tok et bilde av fem munker. Deretter malte han over den ene på negativet med blekk.

Hausken mener dette er uproblematisk – og peker på noe som er helt sentralt i vurderingen. Nemlig hva som er bildets funksjon.

– Hvis bildet skal selges som en suvenir, er det kanskje ikke så farlig hvor mange som var på bildet da det egentlig ble tatt. Og det vil jo selge bedre om det er en god komposisjon enn om det er en dårlig.

Når skal pressen si stopp?

I oktober 2022 publiserte NRK en nyhetsoppdatering om strømpriser illustrert med et bilde av strømmaster. Under bildet kunne man lese at bildet var «generert av Midjourney (AI)». Altså var det laget av kunstig intelligens.

Det tok ikke mange timer før bildet var erstattet av et illustrasjonsfoto fra bildebasen NTB.

Det viste seg at bildet var publisert ved en feil. I etterkant fulgte diskusjoner om retningslinjer rundt bruk av AI-genererte bilder i pressen. Saken har fått tilnavnet «kabelgate» internt i NRK, ifølge journalisten.no.

– Jeg synes bildet kunne blitt stående som det var, sier Hausken.

Medieforskeren mener det ikke hadde vært et problem å bruke et slikt bilde så lenge det hadde vært tydelig merket.

– Det problematiske er at når de erstatter det med et ekte bilde, så er det fortsatt bare et bilde av noen master – antagelig er det også bearbeidet. Det burde da stått at det er et illustrasjonsbilde.

Det handler om hvilken funksjon bildet skal ha, og hvilken sjanger det plasserer seg i, påpeker Hausken,

Hun understreker også at dette vil kreve at mediene er systematiske i bruken av kunstige bilder.

Men Egeberg mener det stiller svært høye krav til oss som ser bildene.

– Det legger opp til at folk flest er veldig bevisst på disse ulikhetene og instinktivt skjønner at dette er en illustrasjon, sier han.

Redaktøren mener pressen må holde seg unna innhold laget ved hjelp av kunstig intelligens.

– For oss som jobber i de redaktørstyrte mediene, så mener jeg at det må være en absolutt grense. Vi må i minst mulig grad manipulere virkeligheten, uten at det helt klart fremkommer hva det er man ser, og at konteksten er så klar at man ikke er i tvil.

Manipulerte bilder fyller feeden

Både Hausken og Egeberg ser tydelige utfordringer ved at man nå enkelt kan manipulere ekte fotografier eller skape helt kunstige videoer og bilder.

I privatlivet, særlig for ungdom, kan manipulerte bilder bidra til mobbing, skjønnhetspress og personvernbrudd. I samfunnet for øvrig peker de to på at bilder kan oversvømme offentligheten og svekke demokratiet. Det gjelder selv slike som bare er ment som humor.

Til deg som scroller hvileløst nedover strømmen av bilder og videoer på Tiktok, Instagram eller Facebook, har de to noen gode råd.

– Ikke del. Du kan se og korrumpere deg selv så mye du vil, men tenk deg om før du deler det videre, sier Hausken.

Hør flere av gjestenes råd for å håndtere visuell desinformasjon og hele diskusjonen om bildemanipulasjon før og nå. Videre om hvem som har hvilket ansvar når fristelsen til å lyve med bilder blir stor.

Gjester er Kristoffer Egeberg og Liv Hausken. Programleder er Mari Lilleslåtten.

Om forskningen

Liv Hausken deltar i forskningsprosjektet Photofake. Der utforsker forskere fra Universitetet i Oslo, Høyskolen Kristiana og Henie Onstad Kunstsenter de visuelle aspektene ved dagens desinformasjonskrise.

Powered by Labrador CMS