
Slik kan vi bruke kunstig intelligens på en forsvarlig måte
Kunstig intelligens kan gjøre fantastiske ting, men vi mennesker greier ikke alltid å se hvordan datamaskinene tar beslutninger. Fire forskere kommer med forslag til hvordan vi kan løse problemet.
Kunstig intelligens er et populært emne innen forskningen for tiden. Selvsagt blant dataforskere, men også blant leger, jurister og filosofer. Og det er det god grunn til.
Det er nemlig et verktøy med fantastiske muligheter. Selvlærende algoritmer kan behandle enorme mengder data og kan derfor ofte ta bedre og raskere beslutninger enn vi kan selv.
– Det er en enorm fordel innen mange områder. Programmene kan behandle mye data veldig raskt, fortalte Tarek R. Besold, som er dataforsker ved University of London i Storbritannia, ved en minikonferanse organisert av Forskningsgruppen i teoretisk filosofi ved Københavns Universitet.
Det er store muligheter innen blant annet diagnostisering av pasienter, risikovurdering av investeringsmuligheter i banker eller domsavgjørelser i rettssaler.
For eksempel har forskere klart å utvikle et system for kunstig intelligens som kan diagnostisere hjertefeil bedre enn hjertelegene.
Ved Harvard har forskere også laget et såkalt «smartmikroskop» som kan oppdage blodinfeksjoner med en treffsikkerhet på 95 prosent.
Kan ikke se begrunnelsen
Det høres ut som et fantastisk, teknologisk eventyr. Men det er et problem. Vi mennesker kan nemlig ikke alltid se hvordan datamaskinene treffer beslutninger.
Selv de som har utviklet programmene, har problemer med å finne ut hvordan de har nådd frem til et bestemt resultat.
For jo mer data system behandler, jo mer presise blir de, men også vanskeligere å forstå. Innen maskinlæring snakker man om problemet med «den svarte boksen».
At vi ikke kjenner til mekanismene kan være veldig problematisk når det kommer til beslutninger på sykehus, der feil kan være fatale, eller i rettssaler, der diskriminerende detaljer som bopel, inntekt eller etnisitet ikke skal påvirke dommen.
Gjennomsiktige eller forståelige systemer
En gruppe forskere var nylig samlet ved Københavns Universitet for å komme med sine forslag til en løsning på problemet.
Ifølge Tarek R. Besold kan vi gå to veier.
Vi kan enten sørge for å gjøre systemene:
- Gjennomsiktige: Noe som vil si at mennesker skal kunne gjennomgå alle utregninger og vurderinger. Ulempen med det er at det krever store ressurser.
- Forståelige: En annen mulighet er at systemet avleverer en slags begrunnelse, altså en indikasjon om hvordan den kom frem til svaret.
Det krever mindre tid og ekspertise, men det er vanskelig å få til med store og komplekse systemer.
Besold anbefaler løsning nummer to på sykehus.
– Leger arbeider allerede på denne måten når de snakker med pasientene. Hvis du har blitt testet for noe, forteller de hva resultatet er og litt om hvorfor, men de gjennomgår ikke hele den faglige prosessen i detalj, sier han.

Er det veldig store og komplekse systemer, foreslår han dessuten et separat system som er designet for å avkode hvordan det første systemet finner frem til svarene sine.
Filosof: De må basere seg på noe virkelig
Ifølge Emily Sullivan, som er postdoc i filosofi ved Det tekniske universitetet i Delf i Nederland, er det ikke nok at systemet gir oss et svar som lar oss forstå algoritmen som ligger bak.
Problemet er de mekanismene vi putter inn i systemet allerede fra begynnelsen.
– Problemet er ikke nødvendigvis at systemet ikke er gjennomsiktig, men at den forklaringen vi leter etter, ikke er der. Vi må sikre oss at maskinen regner på de riktige tingene, sier hun.
For eksempel designet en forskergruppe i 2017 et program som kunne vurdere om en person var heteroseksuell eller homoseksuell ut fra et bilde.
– Her har maskinen fått en urealistisk partiskhet fra starten av. Seksualitet er ikke binær, og derfor vurderer ikke maskinen noe som er relevant for virkeligheten, sier hun.
Samtidig kritiserer hun hele premisset for systemet, ettersom man ikke vet om ansiktstrekk henger sammen med seksualitet. Dermed vil prosessen være vanskelig å gjennomskue.
Kan ikke forklare menneskets handlinger
Ifølge danske Thor Grünbaum, som er førsteamanuensis i bevissthetsfilosofi ved Institut for Medier, Erkendelse og Formidling ved Københavns Universitet, stiller vi for høye krav til maskinene.
Vi krever nemlig en forklaring på en prosess som vi heller ikke forstår hos mennesker, sier han.
– Vi kan ikke forvente at bare fordi én ting skjer etter en annen, så forårsaker den første den andre, sier han.
– Derfor kan vi heller ikke rasjonalisere oss frem til den eksakte årsaken til en handling.
Innen filosofien kaller man det for «post hoc-rettferdiggjøring», altså å lete etter årsaken til en handling etter at den har skjedd.
Dansk filosof: AI må brukes med omhu
Grünbaum mener vi kanskje aldri vil løse problemet med den svarte boksen.
Men samtidig tror han ikke det blir noe stort problem.
– Det handler om å bruke kunstig intelligens der det virker best, og det gir mening. Er det store problemer ved ugjennomsiktighet på et bestemt område, må vi la være med å bruke teknologien der.
Kunstig intelligens er som et mikroskop
Rune Nyrup, som er filosof ved Leverhulme Centre for the Future of Intelligence, University of Cambridge i Storbritannia, mener at vi må tenke oss nøye om for å unngå å bruke teknologien feil.
Og så må vi vite hva vi leter etter når vi vil ha et system til å forklare valgene sine. Forklaringer kan nemlig være flere ting.
– Hvis jeg blir bedt om å forklare hvorfor en gepard kan innhente en gaselle, kan jeg gjøre det på to måter. Rent fysiologisk kan jeg vise hvordan kroppen til geparden fungerer, men jeg kan også forklare evolusjonært hvordan den har utviklet og tilpasset seg til nettopp den næringskilden i økosystemet, sier han.
På samme måte kan kunstig intelligens være laget for å nå frem til et svar på en bestemt måte, eller kanskje til og med ha en fordom, men det vet den ikke selv.
– Det gjør det vanskelig å plassere ansvar for beslutningene, og derfor må vi vite hvordan den kunstige intelligensen virker. Da kan vi velge å bruke den i sammenhenger der den ikke gjør valg som er diskriminerende eller ulovlige, sier han.
Han mener det er uheldig at hypen omkring teknologien får folk til å bruke snevre systemer til å løse generelle problemer.
– Det litt som da man fant opp mikroskopet. Det var flott, og det ga oss en masse nye opplysninger. Men det betyr ikke at alle leger skal renne rundt med et mikroskop hele tiden, sier han.
– Kunstig intelligens bør brukes når det har et formål og det fungerer bra, sier han.
Han nevner han et system som kan gjenkjenne føflekkreft.
– Det er et fantastisk pålitelig redskap som fungerer innenfor sin ramme, sier han.
© Videnskab.dk. Oversatt av Lars Nygaard for forskning.no.