Denne artikkelen er produsert og finansiert av Universitetet i Bergen - les mer.

Timmy Gresshoppe prøvde seg som moralsk rådgiver for Pinocchio. Det gikk sånn passe. Kan et dataprogram lykkes bedre som etikkrådgiver for maskiner?

Kan Timmy Gresshoppe gi maskinene moralsk veiledning?

Timmy Gresshoppe hjalp Pinocchio å skille mellom rett og galt. Kan en kunstig «moralsk rådgiver» gjøre samme nytte for maskiner som møter etiske utfordringer?

Det tror Marija Slavkovik, som er professor og instituttleder ved Institutt for informasjons- og medievitenskap ved Universitetet i Bergen.

I en 55-siders vitenskapelig artikkel nylig publisert i Journal of Artificial Intelligence Research, viser Slavkovik og kolleger i Kina og Luxembourg hvordan en kunstig etikkrådgiver kan programmeres.

- Når vi overlater stadig flere oppgaver til maskiner, øker risikoen for at de havner i etisk sensitive situasjoner. Da må vi også gi dem verktøyene til å håndtere disse situasjonene, mener professor Marija Slavkovik.

Rådgiveren – foreløpig på idéstadiet – har fått navnet Jiminy, i Norge bedre kjent som Timmy Gresshoppe.

– I teorien skal et slikt program kunne kobles til den sentrale styringsalgoritmen for alle typer autonome systemer, altså systemer som opererer uavhengig av menneskelig tilsyn, sier Slavkovik.

Maskinene er våre moralske stedfortredere

 Jo flere oppgaver vi mennesker automatiserer og overlater til maskiner, jo flere etiske utfordringer støter maskinene på.

Her er noen eksempler:

I utgangspunktet er det en god idé at selvkjørende biler stopper på rødt lys. Men hva om det kommer et vogntog med defekte bremser i stor fart bakfra og eneste mulighet til å redde passasjerene, er å kjøre på rødt? Og hva om denne manøveren i neste omgang setter uskyldige fotgjengere i fare?

Hvis sensorene i et smarthus oppdager hasjrøyk hos tenåringen i kjellerstua, skal systemet da varsle politiet? Hva med hensynet til personvern og privatlivets fred? Hva om er det snakk om medisinsk marihuana kjøpt på resept? Er hasj i det hele tatt forbudt i landet der hasjrøykeren bor?

Et verktøy som siler innhold i sosiale medier registrerer at det er publisert et bilde av et barn i bar overkropp i vannkanten. Skal det betraktes som barnepornografi og fjernes? Eller er det et uskyldig ferieminne lagt ut av bestemor etter turen til Gran Canaria?

En smarthøyttaler med stemmeassistent tar opp en samtale rundt et middagsbord, der det snakkes om å sprenge Johanneskirken i Bergen i luften 1. juledag. Er det bare løsprat, eller planlegges det en terroraksjon?

– Når vi mennesker ber maskiner om å ta beslutninger eller løse oppgaver for oss, gjør vi maskinene til våre stedfortredere også i moralsk forstand. Derfor plikter vi å gi dem redskapene som trengs for at de skal kunne håndtere etiske utfordringer tilfredsstillende. Det er lett å glemme at maskinene selv hverken har moral eller forstår kontekst du og jeg tar for gitt, sier Slavkovik.

Hvor hjelpeløse maskinene i realiteten er, illustrerer hun slik:

– La oss anta at vi i fremtiden har robotkelnere. Hvis jeg ber en robotkelner om et glass, kan den ikke uten videre vite at jeg mener et rent glass fra kjøkkenet. Den kan like gjerne ta et brukt glass fra nabobordet, kanskje til og med ta et ut av hånden til en annen gjest. All kontekst og forståelse av sosiale normer som vi tar for gitt, må spesifiseres for en robot i et språk som et dataprogram forstår.

Basert på normer og formell argumentasjon

 Ifølge Slavkovik kan en kunstig rådgiver trolig programmeres på «minst tusen forskjellige måter».

– Vårt forslag er basert på normer og formell argumentasjon. Det betyr at programmet må fores med informasjon om hvilke lover, regler og sosiale normer som gjelder på det feltet den aktuelle maskinen opererer på. I tillegg må programmet ta i betraktning hvilke argumenter de som berøres av maskinens handlinger, har for at én løsning skal velges foran en annen.

Deretter prøves argumenter og motargumenter mot hverandre gjennom formell argumentasjon.

– Formell argumentasjon er det jeg vil kalle en svært matematisk måte å føre en diskusjon på. Etter matematisk logikk vinner et argument bare frem dersom det er i stand til å avvise alle motargumenter. En kollega av meg har kalt det «gunfighter rules». Argumentet er sant hvis alle motstanderne er døde når kruttrøyken letter, sier Slavkovik.

Hun viser til eksempelet med bildet av det nakne barnet for å forklare hvordan argumentasjonen kan arte seg:

– Argumentet om at det er barnepornografi som automatisk må fjernes, faller dersom det viser seg at vi snakker om det berømte bildet av jenta som rømmer fra napalmregnet under Vietnamkrigen. Da er bildet et historisk dokument det kan være feil å sensurere.

Men hva om det ikke er henne heller, men det omtalte feriebildet fra Gran Canaria?

– Da kan det argumenteres med at bestemor må få publisere de ferieminnene hun ønsker. Så er spørsmålet hvordan det argumentet står seg mot behovet for å beskytte barnet? Slik går programmet gjennom alle argumentene det er foret med og foretar en formell avveining basert på hensynene til de ulike interessentene.

Siden virkeligheten er en vidunderlig komplisert innretning, vil programmet selvsagt ofte støte på situasjoner der formell argumentasjon ikke leder frem til noen tydelig anbefaling.

– Dette vil være en helt sentral utfordring uansett hvordan programmet lages. Vi har forsøkt å løse det ved å anta at det er mulig å gjøre prioriteringer mellom interessentene. Altså litt som å si at ved stemmelikhet skal presidenten eller ordføreren ha det avgjørende ordet, forteller professoren.

Kunstig intelligens krever mye manuelt arbeid 

I artikkelen viser forskerne at det er mulig å lage den etiske rådgiveren de har sett for seg og at formelle argumenter lar seg prosessere i den matematiske modellen de har foreslått.

For at en kunstig Timmy Gresshoppe skal fungere som rådgiver i praksis, er det likevel en rekke forutsetninger som må være på plass.

– Sannheten er at det meste av det som omtales som kunstig intelligens, er basert på enorme mengder manuelt forarbeid som må gjøres av mennesker, sier Slavkovik.

Hun forklarer at i tilfellet Timmy Gresshoppe må mennesker for det første identifisere de etiske utfordringene et bestemt autonomt system kan havne i. Ellers er det ikke klart når den etiske rådgiveren skal gripe inn.

For det andre må mennesker samle inn relevant kontekstuell informasjon og argumenter som ivaretar synspunktene til ulike interessenter.

– Eksempler på slike interessenter kan være de som lager de autonome systemene, de som bruker dem, og personer eller institusjoner som påvirkes av bruken. I vår modell brukte vi tre slike interessenter, og allerede da ble det komplisert. I virkeligheten kan det være et utall interessenter å ta hensyn til, sier hun.

For det tredje må faktainformasjon oversettes til et språk datamaskiner kan håndtere ved hjelp av datalogikk. Dette har tradisjonelt vært gjort av spesialister som kalles kunnskapsingeniører. Slavkovik har håp om at det på sikt skal være mulig å automatisere i alle fall deler av denne jobben. I motsatt fall kan det bli fryktelig dyrt.

– Vi kunne også lagt til et fjerde punkt om behovet for å kontinuerlig oppdatere Timmy Gresshoppe, et femte om hvordan han skal kobles til maskinenes styringsenheter, og sikkert et sjette og syvende punkt også. Men at det er vanskelig, betyr ikke at vi skal la være å prøve, sier Slavkovik.

Behovet for etikkverktøy presser seg fram

 I den originale versjonen av historien blir Pinocchio så lei av formaningene at han tar livet av den snakkende gresshoppen. Slavkovik tror en kunstig Timmy Gresshoppe tross alt har bedre odds.

Hun tror det er mulig å konstruere en fungerende Timmy Gresshoppe allerede i dag, men bare for et lite og svært veldefinert problem i svært avgrensede omgivelser.

– Hvis han skal fungere på et generelt nivå der det gir mening å snakke om kunstig intelligens, trengs det mye forskning og store investeringer over lang tid. Men jeg tror vi her snakker om behov som presser seg frem, for jo mer vi automatiserer, jo tydeligere blir det også bli at maskinene trenger bedre dataverktøy for å håndtere etiske utfordringer.

Referanse:

 Beishui Liao, Marija Slavkovik mfl.: The Jiminy Advisor: Moral Agreements among Stakeholders Based on Norms and Argumentation. Journal of Artificial Intelligence Research, 2023. Doi.org/10.1613/jair.1.14368

Powered by Labrador CMS