Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.
Kunstig intelligens gjør falske nyheter mer troverdige
Falske nyheter laget av KI blir ofte oppfattet som mer troverdige enn tekster skrevet av mennesker. Det bekymrer språkforsker.
I 2017 ble «falske nyheter» kåret til årets nyord av Språkrådet.
Men hva er de språklige trekkene ved falske nyheter? Og kan falske nyheter avsløres på bakgrunn av språklige trekk?
Det har språkforsker Silje Susanne Alvestad sett nærmere på. Hun og forskerkollegaene har undersøkt språket i falske nyheter på engelsk, russisk og norsk.
Løy i presens, skrev sant i fortid
Prosjektet bygger blant annet på forskning fra University of Birmingham. Der har de undersøkt artiklene til den tidligere journalisten i New York Times, Jayson Blair.
Han mistet jobben i 2003 etter at det ble avslørt at han skrev falske nyheter.
– Forskerne sammenlignet de sanne og de falske artiklene hans for å se om de fant forskjeller. Et interessant funn var at han overveiende skrev i presens når han løy, og i fortid når han skrev genuine nyheter, sier Alvestad.
De fant også forskjeller i bruk av pronomen. Videre var de ekte artiklene i gjennomsnitt lengre.
Mer uformell stil i usanne artikler
De fabrikkerte tekstene hadde en mer muntlig og uformell stil.
De fant også høy bruk av såkalte emfatiske uttrykk, eller framhevende uttrykk, i de fabrikkerte tekstene, for eksempel «truly», «really» og «most».
Alvestad og kollegaene har sammenlignet Jayson Blair-tekstene med lignende tekstsamlinger der én og samme person har skrevet både genuine og falske nyheter.
De ser at de språklige trekkene ved falske nyheter varierer etter hva slags motivasjon opphavspersonen har for å føre folk bak lyset.
– Blair forteller i sin selvbiografi at motivasjonen hans først og fremst var penger. Vi fant for eksempel ut at hans fabrikkerte nyheter inneholdt få metaforer. Når motivasjonen derimot er ideologisk, brukes flere metaforer. Ofte fra domener som sport og krig, sier Alvestad.
Mer skråsikre i falske nyheter
At falske nyheter kan ha en mer skråsikker stil, er et annet viktig funn.
Forskerne har undersøkt det som på engelsk kalles «stance». Det er måter opphavspersonen gir uttrykk for holdninger, oppfatninger og tanker på.
– I falske nyheter gir ofte den som skriver uttrykk for at han eller hun er bombesikker på at det som fortelles, er tilfelle. Dette kalles «epistemisk sikkerhet». Vi kan se en overrepresentasjon av uttrykk for slik sikkerhet, for eksempel «obviously», «evidently», «as a matter of fact», og så videre.
Denne tendensen er sterkere i russisk språk enn i engelsk.
– Vi spurte oss om det finnes et universelt språk for falske nyheter. Det har vi kommet fram til at det ikke gjør. De språklige trekkene ved falske nyheter varierer innenfor enkeltspråk og mellom språk. De avhenger av kontekst og kultur, sier Alvestad.
Prøv verktøy for faktasjekk
Dermed blir det også hakket mer utfordrende å utvikle verktøy for å sjekke falske nyheter basert på språklige trekk.
Dette var noe forskerne hadde som mål å gjøre sammen med informatikere fra SINTEF. De har likevel klart å lage et faktasjekkverktøy. Det kan prøves ut på forskningsinstituttet SINTEF sine nettsider.
– Fra et språkvitenskapelig perspektiv har vi vært kritiske til at definisjonen av falske nyheter i praksis har rommet for mange sjangere. Det gjør at en ikke helt vet hva forskjellene mellom falske og genuine nyheter skyldes, mener Alvestad.
Det trengs gode og balanserte datasett for å utvikle gode faktasjekkverktøy. Vi trenger også en målrettet og sofistikert språkvitenskapelig tilnærming, utdyper hun.
Desinformasjon fra KI
Mens forskerne har jobbet med dette prosjektet, har utviklingen innen kunstig intelligens (KI) skutt fart. Landskapet for falske nyheter er endret.
Det la grunnlaget for et nytt prosjekt, som dreier seg om identifisering av KI-generert desinformasjon. Alvestad og de andre forskerne bruker materialet fra Fakespeak for å finne språklige trekk ved desinformasjon laget av KI.
– Rene fabrikkerte nyheter, som det var en del av for seks, sju år tilbake, har kanskje ikke den store påvirkningskraften. Det er heller et større problem med falske nyheter som kan være en blanding av sant og usant, sier Alvestad.
I det nye prosjektet går de bort fra begrepet falske nyheter, og snakker om desinformasjon.
– Noe av informasjonen er sann, men hele sannheten tas ikke med. Den spisses, settes gjerne i feil kontekst, og overlapper ofte med propaganda, sier forskeren.
Denne miksen gjør at de lett sniker seg under radaren til mekanismer på nettet som skal verifisere innhold. Det gjør desinformasjon ekstra utfordrende å avsløre, sier hun.
Mindre variasjon hos KI
Det nye prosjektet skal holde på til 2029, men forskerne har allerede ny kunnskap.
Et eksempel er at det er mindre variasjon i bruk av teknikker for å overbevise i KI-generert propaganda, sammenlignet med propaganda skrevet av mennesker.
To typer teknikker utpeker seg i de KI-genererte tekstene. Den ene er den forskerne kaller «Appeal to Authority», som viser til hvor informasjonen er hentet fra.
– Vi legger merke til at disse referansene er generiske, det vil si at de typisk står i ubestemt form. Det kan for eksempel stå «ifølge forskere» eller «eksperter mener», sier hun.
Appellerer til verdier
Store språkmodeller gjør sannsynligvis slike grep fordi de jo ikke har noen relasjon til verden, og vet ikke hva som er sant og ikke, mener forskeren.
Men på denne måten blir påstandene svært vanskelig, om ikke umulig, å verifisere, sier hun.
Den andre teknikken er ifølge forskerne at KI-genererte nyheter med innslag av propaganda avsluttes på en annen måte enn propaganda produsert av mennesker.
– De ender ofte med formuleringer som forskerne kaller «Appeal to Values», altså en appell til verdier. Her argumenteres det for at noe må gjøres for å eksempelvis sikre økt vekst, økt rettferdighet eller økt tillit i befolkningen, sier Alvestad.
Håper på økt bevisstgjøring
Hvordan reagerer så mennesker på KI-generert desinformasjon sammenlignet med desinformasjon skrevet av mennesker?
Forskerne har gjennomført en test med amerikanere som ble bedt om å rangere KI-genererte tekster og tekster skrevet av mennesker, etter tre variabler: troverdighet, appell til følelser og hvor informative de er.
Testpersonene visste ikke hvor tekstene stammet fra.
Den KI-genererte desinformasjonen ble både vurdert som mer troverdig og informativ, enn desinformasjon skrevet av mennesker.
Forskerne spurte også hvilket av tekstutdragene respondentene ville lese mer av. Da var det betydelig flere som svarte at de vil fortsette på tekstene som var KI-generert.
KI-tekstene ble oppfattet som mer troverdige
Vi ble ikke overrasket over at de foretrakk de KI-genererte tekstene, forteller Alvestad.
– Men jeg ble personlig litt overrasket over at de KI-genererte tekstene ikke skåret høyt på appell til følelser. I stedet ble de jo oppfattet som både mer informative og troverdige enn tekster skrevet av mennesker, sier Alvestad.
Dette tyder på at det kan være vanskeligere å avsløre KI-generert desinformasjon. Store språkmodeller kan pakke feil- og desinformasjon inn i sjangrer som vi i utgangspunktet har tillit til.
Dette mener Alvestad det er viktig at vi er bevisst på.
– Jeg håper resultatene våre kan bidra til økt bevisstgjøring om risikoene knyttet til store språkmodeller. Særlig i en tid der slike verktøy i økende grad tas i bruk, sier hun.
Les også disse sakene fra Universitetet i Oslo:
-
– Presterollen må gjennomtenkes på ny
-
– KI-bilder er ikke falske fotografier
-
Forsker: Vær glad for livets overraskelser
-
Ny beregning: Hvert år dør 3.900 nordmenn for tidlig av usunn mat
-
Alkoholskader oppstår raskere enn tidligere antatt, men det nytter å snakke om det
-
Her er det dansen som skaper musikken
forskning.no vil gjerne høre fra deg!
Har du en tilbakemelding, spørsmål, ros eller kritikk? TA KONTAKT HER