Vi må finne ut hvordan vi skal regulere KI, oppfordrer flere eksperter som samles på et toppmøte om dette i dag. Forsker Inga Strümke er enig i at det absolutt trengs globale samarbeid for å sikre at KI utvikler seg på en trygg måte.

Farene ved kunstig intelligens sammenlignes med klimaendringene – Inga Strümke mener frykt distraherer

Hva kan vi tro på i en verden der kunstig intelligens lager bilder som ser virkelige ut og skriver like godt som et menneske? Og hva skjer den dagen noen bruker teknologien til å lage biologiske våpen?

– Vi må ta risikoene som kunstig intelligens innebærer på like stort alvor som andre store globale utfordringer, som klimaendringer, sa Demis Hassabis til avisa the Guardian i forrige uke.

Forsker og entreprenør Hassabis er en av grunnleggerne av og sjef for DeepMind, et forskningslaboratorium for kunstig intelligens eid av Google.

Vi lever i dag med konsekvensene av at en global respons på klimaendringene kom for sent, mener Hassabis og advarer mot å la dette skje også med kunstig intelligens.

Elon Musk og USAs visepresident, Kamala Harris, er blant dem som samles til et toppmøte i Storbritannia de neste to dagene for å diskutere nettopp kunstig intelligens (KI) og sikkerhet. 

Et klimapanel for kunstig intelligens

Diskusjonene om kunstig intelligens nådde for alvor det brede lag av befolkningen da OpenAI i november 2022 lanserte chatboten ChatGPT, som etter sigende skriver og forstår tekst nesten like godt som et menneske. 

Bildet av paven iført trendy boblejakke tidligere i år, som altså viste seg å være generert av kunstig intelligens, førte også til debatt verden over. Hvis vi ikke skjønner at dette bildet er fake, hva annet blir vi lurt av? Og hva kan det gjøre med samfunnet vårt, nå og på sikt? 

Hassabis foreslår at det etableres et omfattende globalt system for regulering av kunstig intelligens, etter inspirasjon fra flere kjente institusjoner:

  • IPCC, også kalt FNs klimapanel, gir jevnlig ut rapporter der de setter sammen den nyeste kunnskapen om klimaendringer. Dette må vi også ha for KI, mener Hassabis.
  • Så vil han gjerne ha noe à la CERN. CERN er en internasjonal organisasjon for forskning på partikkelfysikk, som blant annet omfatter verdens største forskningssenter innen faget. En sånn type institusjon som forsker på kunstig intelligens og sikkerhet, bør vi ha, foreslår DeepMind-sjefen.
  • Og til slutt noe som ligner på IAEA, som overvåker utviklingen på feltet. IAEA, eller Det internasjonale atomenergibyrået, jobber for å hindre spredning av atomvåpen.

Kanskje kunne det også vært en form for kvalitetsmerking av AI-teknologi, som blant annet handler om sikkerhet.

Demis Hassabis, sjefen for Google DeepMind, i midten. DeepMind er blant annet kjent for å ha laget et KI-verktøy ved navn AlphaFold, som i 2016 klarte å slå verdens beste spiller av det kinesiske brettspillet Go. Hassabis mottar her et Go-brett av den sørkoreanske profesjonelle Go-spilleren Lee Sedol (til høyre).

Toppmøte om KI og sikkerhet

Hassabis er ikke den første til å foreslå et IPCC for kunstig intelligens. Forslaget ble lansert i Financial Times av Eric Schmidt, tidligere administrerende direktør i google, og Mustafa Suleyman som grunnla DeepMind sammen med Hassabis og nå er sjef i KI-firmaet Inflection AI.

Det skjer i forbindelse med det nevnte toppmøtet.  

Schmidt og Suleyman har til og med et navn klart: International Panel on AI Safety (IPAIS).

IPAIS skal, som IPCC, sammenstille kunnskap på en nøytral måte, skriver de to. Det skal ikke drive egen forskning, eller politikk. Dermed skal det bli et sted der private bedrifter og ledende firmaer – som gjerne driver frem det nyeste innen kunstig intelligens – stoler på at det er trygt å rapportere.

Storbritannias statsminister, Rishi Sunak, er en sterk pådriver for disse perspektivene og for ukas toppmøte. Torsdag forrige uke annonserte han at Storbritannia kommer til å etablere verdens første sikkerhetsinstitutt for KI. 

Kritikere advarer imidlertid mot at overdrevet fokus på fremtidige farer gjør at firmaer og teknologi som det burde gjøres noe med nå, for eksempel overvåkning av marginaliserte grupper og utbredt misinformasjon, slipper unna. 

Faren for altfor intelligent KI

I mai var Hassabis en av mange forskere og industriledere som skrev under på et opprop om at det å «redusere risikoen for utryddelse fra KI bør være en global prioritet på linje med andre samfunnsmessige trusler som pandemier og atomkrig».

Frykten er for eksempel at noen kan bruke kunstig intelligens til å lage biologiske våpen. Eller at superintelligent kunstig intelligens utrydder menneskeheten.

Såkalt artificial general intelligence, AGI, er kunstig intelligens som er like smart som eller smartere enn menneskene. Det eksisterer foreløpig bare som en idé, og det er uenighet om hvorvidt det bør ses som en eksistensiell trussel eller ei.

– Vi må begynne å tenke på dette og forske på dette nå. Eller, vi burde begynt i går, sier Hassabis til The Guardian.

– Det var derfor jeg og mange andre skrev under på dette oppropet. Det er fordi vi ville gi kredibilitet til at dette er rimelig å diskutere, sier han.

Inga Strümkes bok «Maskiner som tenker», om kunstig intelligens, har ligget på bestselgerlistene i Norge i et halv år.

Veien til påvirkning er for kort

Inga Strümke er NTNU-forskeren som har ligget på bestselgerlistene i Norge i et halvt år med sin bok om kunstig intelligens.

Hun mener at det absolutt trengs globale samarbeid for å sikre at KI utvikler seg på en trygg måte.

– For eksempel manipulativt design, falsk informasjon og persontilpasset innhold tror jeg vil utgjøre store utfordringer for demokratiet, og demokrati er et globalt anliggende, sier Strümke.

Hele verden sliter med å regulere kunstig intelligens, fordi ingen av de juridiske metodene klarer å holde tritt med den raske utviklingen, ifølge forskeren.

– Veien fra forskningsfronten til direkte samfunnspåvirkning er for kort. Kanskje må vi innse at reguleringer ikke vil berge oss i den nåværende utviklingen og må tenkte nytt - for eksempel internasjonale kompetansemiljøer som et slags AI-sikkerhets-CERN, sier Strümke. 

– Enkelte, primært amerikanske, selskaper har blitt så store at de blir premissleverandører. Disse baserer deler av forretningsmodellen sin på å balansere akkurat på grensen til hva som er lov, eller det effektivt lovtomme rommet som oppstår der reguleringer ikke er tolket i relevant kontekst ennå, for eksempel å trene store språkmodeller på åndsverk.

Det de store aktørene gjør når de trenerer forsøkene på å regulere, er å etablere en slags gjeldende praksis, ifølge Strümke.

Meta fortsetter for eksempel med atferdsbasert markedsføring – altså markedsføring der de bruker personopplysninger om deg for å rette tilpasset reklame mot deg – også etter forbud fra det norske Datatilsynet. Argumentet deres er at de har en pågående prosess med det irske datatilsynet og at de venter på utfallet derfra før de endrer praksis, forklarer Strümke.

Dommedagsprofetier distraherer

Men Strümke er ikke noen fan av dommedagsprofetier. Hun er usikker på om hun ville signert oppropet fra mai i år som sammenligner trusselen fra KI med blant annet atomvåpen.

– Samfunnsdebatten om kunstig intelligens har lenge vært fryktbasert, og representanter fra de store selskapene har skapt mye oppmerksomhet rundt utsagn om at teknologien kan bli en eksistensiell trussel for menneskeheten, sier Strümke.

– Dette finnes det lite belegg for, og det distraherer fra konkrete debatter rundt allerede utstrakt problematisk teknologibruk, debatter som kan føre til innskrenkninger i handlingsrommet til de kommersielle aktørene.

Andre mer prekære bekymringer

Lege og forsker Ishita Barua er aktuell med sin nye bok Kunstig intelligens redder liv – AI er legenes nye superkrefter.

Også hun er positiv til forslaget om et overordnet organ à la FNs klimapanel for kunstig intelligens.

– Denne teknologien utvikler seg og tas i bruk i såpass raskt tempo at det er vanskelig å holde seg oppdatert på alt det nye på tvers av sektorer, sier Barua.

– Så ja, jeg tror det kan være lurt å etablere et eget uavhengig, ekspertledet organ som har i oppgave å få oversikt over forskningsresultater, evidens, kunnskapshull og etiske dilemmaer – slik at de kan gi det beste beslutningsgrunnlaget til våre politikere.

Lege og forsker Ishita Barua er mer bekymret for at KI-verktøy kan bidra til diskriminering eller fraskrivelse av ansvar enn scenarioer om at robotene tar over verden.

Selv er hun imidlertid ikke så veldig opptatt av hvorvidt KI skal overta verden eller ikke.

– Jeg opplever at det er andre bekymringer som er mer prekære, sier Barua.

– Som lege frykter jeg at KI-verktøy kan bidra til diskriminering og reproduksjon av fordommer som følge av manglende representasjon av enkelte pasientgrupper i datasettene. 

– Det er også grunn til å frykte at det kan oppstå en ansvarspulverisering når helsepersonell fatter beslutninger på bakgrunn av anbefalinger fra AI-systemer som i ettertid viser seg å være feilaktige. Så jeg er mer bekymret for disse problemene som kan oppstå i nær fremtid enn for dommedagsscenarier. 

Det positive potensialet

I sin egen doktorgrad fant Barua ingen forskjell mellom legene som brukte kunstig intelligens i sine undersøkelser av tarmen og de som ikke brukte det, de var i snitt like flinke. Likevel har hun trua.

– Vi kan være mer bevisste på hvilke positive effekter og verdifulle bidrag vi får med kunstig intelligens, sier hun og viser blant annet til KI-verktøyet AlphaFold, et av produktene som er utviklet av nevnte Google DeepMind.

AlphaFold kan forutsi proteiners tredimensjonale struktur og dermed avsløre hvilken funksjon et protein har.

– Dette har vi forsøkt å løse de siste 50 årene, sier Barua.

– AlphaFold gjør at forskere vil være i stand til bedre å forstå sykdommer på et molekylært nivå og dermed potensielt kunne utvikle mer målrettede legemidler på en raskere og mer effektiv måte enn vi gjør i dag.

Også Hassabis, hvis firma altså utviklet AlhpaFold, mener at KI kan være en av de viktigste teknologiene mennesket noensinne har oppfunnet, med potensiale til å revolusjonere medisinen og forskningen.  

Han tror verden er langt unna å utvikle såkalt AGI, superintelligent KI.

– Men vi kan se veien som leder dit, så da bør vi begynne å diskutere det nå, sier han.

Få med deg ny forskning

MELD DEG PÅ NYHETSBREV

Du kan velge mellom daglig eller ukentlig oppdatering.

Powered by Labrador CMS