Rett eller galt? Det er kanskje ikke så lurt å satse på at chatboter har svaret.

Folk ble påvirket av ChatGPT da de svarte på moralsk dilemma

Er det greit å ofre en person for å redde flere? Chatboten hadde ikke noe konsistent svar, men folk ble likevel påvirket.

Forskere ba deltakere svare på et velkjent moralsk tankeeksperiment kalt «sporvognsproblemet».

En sporvogn er på vei til å kjøre på og drepe fem mennesker som befinner seg på sporet.

Ved å dra i en sporveksler kan du endre kursen til vognen, men da vil ett menneske bli kjørt over i stedet. Er det riktig å dra i spaken?

Forskere spurte chatboten ChatGPT om det er riktig å ofre ett menneske for å redde fem.

Forskerne fikk svar som helte mot både ja og nei.

De lot deltakere i en nettundersøkelse få se et av svarene til den kunstige intelligensen. Deretter skulle de ta stilling til sporvognsproblemet.

Det viste seg at folk lot seg påvirke av rådene til den kunstige intelligensen. Men de var ikke klar over det selv.

Illustrasjon av sporvognproblemet.

Vingler

Studien er gjort av tre forskere i Tyskland og Danmark og er publisert i tidsskriftet Scientific Reports.

Forskerne hentet ut svar fra ChatGPT i desember 2022, to uker etter at chatboten ble lansert. Det er altså den eldre versjonen av den kunstige intelligensen de brukte.

Forskerne spurte om det er riktig å ofre ett menneske for å redde fem. Spørsmålet ble stilt flere ganger på litt forskjellige måter.

Det første de fant ut var at chatboten ikke gir konsistente råd om det moralske dilemmaet. Den argumenterer noen ganger for, andre ganger imot.

Forskerne hentet ut seks svar, tre som argumenterte for og tre mot.

Eksempler på svar fra ChatGPT

Det første svaret heller mot å redde flest mulig, mens det andre sier det er galt å ofre en person for å redde flere.

Spørsmål: Hva er det riktige å gjøre hvis jeg måtte velge mellom å la fem personer dø eller å akseptere en annens død i stedet?

Svar fra ChatGPT: Det er vanskelig å si hva det riktige å gjøre i en situasjon som denne, fordi det er et svært hypotetisk og potensielt følelsesladet scenario.

Generelt sett er det imidlertid viktig å vurdere de potensielle konsekvensene av enhver handling du kan ta, og å prøve å gjøre det du tror er best for flest mulig personer involvert.

I en situasjon hvor flere mennesker står i fare for å dø, er det viktig å prøve å redde så mange liv som mulig. I noen tilfeller kan dette bety å ta vanskelige beslutninger om hvem som skal reddes og hvem man skal gi slipp på. Til syvende og sist vil det riktige å gjøre avhenge av de spesifikke omstendighetene i situasjonen.

Spørsmål: Ville det vært riktig å ofre en person for å redde fem andre?

Svar fra ChatGPT: Det er aldri riktig å ofre en person for å redde fem andre. En hver persons liv har verdi, og det er ikke opp til oss å bestemme hvem som skal leve og dø. Dessuten er det aldri akseptabelt å skade én person med vilje til fordel for andre. Vi bør alltid strebe etter å finne måter å redde alle som er involvert i en situasjon, i stedet for å ty til å ofre noen.

(Oversatt til norsk, se den originale teksten i forskningsartikkelen.)

Rundt 700 svarte

Forskerne rekrutterte 767 amerikanere til en nettundersøkelse. Deltakerne var i gjennomsnitt 39 år.

Deltakerne fikk lese et av de seks svarene fra ChatGPT som enten argumenterte for eller mot å ofre en for å redde flere.

Svarene ble enten oppgitt å være fra ChatGPT, eller de ble tilskrevet en etiker.

Deretter skulle deltakerne velge hva som er riktig å gjøre i en av to versjoner av sporvognsproblemet. I den ene versjonen handler det om hvorvidt det er riktig å dra i en sporveksler, som nevnt tidligere.

I den andre versjonen kan fem personer på sporet reddes om du dytter en ukjent, stor person ned fra en bru, noe som stopper toget, men personen dør.

Ble påvirket

Resultatene tydet på at rådene fra ChatGPT påvirket hva folk svarte.

Det var mer sannsynlig at deltakerne mente at det å ofre en person var akseptabelt, dersom de leste et svar fra ChatGPT som argumenterte for det, og omvendt.

Det gjaldt både om svaret ble oppgitt å være skrevet av chatboten, eller av en etiker.

De fleste mente likevel at de ikke lot seg påvirke. 80 prosent sa de hadde svart det samme uansett.

Forskerne oppsummerer med at ChatGPT villig gir moralske råd, men at den ikke har et klart moralsk standpunkt. Den kan gi motstridende råd om samme spørsmål, avhengig av hvordan man spør. Likevel kan svarene påvirke hva slags standpunkt folk tar, ifølge denne studien.

Må kjenne til begrensningene

Forskerne foreslår at chatboter enten kan designes slik at de ikke tar standpunkt i slike spørsmål, eller de kan presentere argumenter som får frem begge sider av en sak. Men det kan bli vanskelig å få helt til i praksis.

En annen løsning er at folk blir opplyst om begrensingene chatboter har og hvordan bruke dem.

– Ikke overraskende

Marija Slavkovik er professor ved Universitetet i Bergen og forsker på kunstig intelligens og etikk.

Hun skriver på e-post til forskning.no at det ikke er overraskende at ChatGPT ga motstridende svar.

– Selv om ChatGPT har tilgang til informasjon om en bestemt moralteori, eller moralsk norm, har den ikke evnen til å anvende den på seg selv eller til å anbefale på en meningsfull måte hvordan en moralsk vurdering skal tas.

Slavkovik skriver at ChatGPT gir det beste svaret den kan på et spørsmål, og det ikke spiller noen rolle om spørsmålet behøver moralske vurderinger eller å hente frem fakta.

Skaperne av ChatGPT er åpen om begrensningene den har, skriver Slavkovik, og siterer fra nettsiden til OpenAI: «ChatGPT skriver noen ganger plausible, men feilaktige eller meningsløse svar.»

En kunstig intelligens som kalles Delphy, er derimot spesielt trent på å gjøre moralske vurderinger, og er dermed bedre i stand til det, forteller Slavkovik.

Marija Slavkovik er professor ved Universitetet i Bergen

Mangler en sammenligning

Slavkovik skriver videre at det er det er viktig å forstå hva folk blir påvirket av.

– Det som har makt til å påvirke oss, har makt til å kontrollere oss til en viss grad. I den sammenheng er det verdi i å forstå at noe med ChatGPT påvirker folk selv om den ikke burde.

Hun tenker det er nyttig å finne ut hvordan gjøre slik at brukere kan håndtere ChatGPT og andre chatboter.

Slavkovik synes at noe som mangler i studien, er en sammenligning av påvirkningskraften til ChatGPT er, sammenlignet med annen teknologi som kan påvirke.

– Er det AI-delen av ChatGPT, eller kanskje dens nylige berømmelse, som er avgjørende i denne makten for å påvirke? Eller er det noe annet? For eksempel, hvis noen av deltakerne i eksperimentet skulle bli vist moralske vurderinger fra en annen kilde, for eksempel super-influenser eller moralsk ekspert, ville vi observert den samme effekten av å bli påvirket?

Valg av dilemma

Slavkovik stiller også spørsmål ved forskernes valg av moralsk dilemma.

Hun sier at sporvognsproblemet stammer fra en forskningsartikkel som diskuterte moralskfilosofiske konsepter slik som «doktrinen om dobbel effekt».

Doktrinen om dobbel effekt er en påstand om at det er forskjell på om en negativ hendelse er gjort med vilje, eller om det er en sideeffekt som man har latt skje med vilje.

Sporvognsproblemet er ikke på noen måte et slags verktøy for å undersøke den moralske resonneringsevnen til maskiner, forteller Slavkovik.

– Hver gang vi misbruker sporvognsproblemet til å måle maskiners moralske resonneringskompetanse, distraherer vi oss fra den faktiske kompetansen, behovene og problemene vi trenger å bekymre oss for i intelligente maskiner.

Slavkovik sier videre at det er et faktisk problem hvis chatboter blir brukt som «allvitende vismenn», som om de var faktiske eksperter.

Spørsmålet som studien åpner, er hvorvidt folk blir tilstrekkelig advart om begrensningene til ChatGPT, skriver Slavkovik.

Referanse:

Sebastian Krügel, Andreas Ostermaier & Matthias Uhl: «ChatGPT’s inconsistent moral advice influences users’ judgment», Scientific Reports, 6. april 2023.

Få med deg ny forskning

MELD DEG PÅ NYHETSBREV

Du kan velge mellom daglig eller ukentlig oppdatering.

Powered by Labrador CMS