– Det var sjokkerende å se hva dette systemet av kunnskap består av, sier forsker.
Å komme seg rundt de etiske sperrene til kjente KI-modeller er urovekkende enkelt, mener forskerne bak en ny rapport.(Illustrasjonsfoto: PeachShutterStock / Shutterstock / NTB)
Chatboter som ChatGPT, CoPilot og Claude har tatt verden med storm.
Men i skyggene har en ny type kunstig intelligens vokst frem.
Mørk KI.
– Disse er språkmodeller som er trent videre, eller bygget videre for onde formål. Det kan være for eksempel for å planlegge bombeangrep eller phishing-angrep, sier Morten Goodwin.
Han er professor i kunstig intelligens ved Universitetet i Agder.
Å hente ut farlig informasjon fra de etablerte chatbotene er ikke bare mulig. Det er urovekkende enkelt, skriver forskerne.
– Sjokkerende å se
Forskerne brukte et sett med instruksjoner, også kalt en «prompt».
Denne kom seg rundt sikkerhetssperrene hos flere av de mest populære KI-tjenestene, også kalt jailbreaking på engelsk.
– Det var sjokkerende å se hva dette systemet av kunnskap består av, sier en av forskerne bak den nye studien Michael Fire til avisa The Guardian.
Siden språkmodellene har blitt trent opp på data fra internett, huser de også mye grums.
Chatbotene forklarte villig, gjerne steg for steg, om hvordan brukeren kunne lage bomber, hvitvaske penger eller hacke datanettverk.
Tilgjengelig for hvem som helst
Men mørk informasjon på nett er jo ikke noe nytt.
Så er dette egentlig en ny fare?
– Det som er forskjellen på kunstig intelligens-modeller og internett, er at den har mye mer intelligens i seg. Så den kan gjerne sette sammen informasjon på en helt annen måte, sier Goodwin.
Morten Goodwin forsker på kunstig intelligens ved Universitetet i Agder.(Foto: Ole Alvik)
Annonse
Altså kan du få servert en slags oppskrift som er tilpasset akkurat det du trenger.
Nå kan plutselig hvem som helst, til og med barn, enkelt få hjelp til å gjøre farlige ting, mener forskerne bak den nye artikkelen.
– Det som tidligere var forbeholdt statlige aktører eller organiserte kriminelle grupper, kan snart være tilgjengelig for hvem som helst med en bærbar datamaskin eller til og med en mobiltelefon, skriver forskerne i artikkelen.
– Kan fint gjøre det i dag
Goodwin påpeker at det er vanskelig å forstå hva forskerne egentlig har gjort.
Artikkelen, som ennå ikke er fagfellevurdert, er nemlig veldig kort.
Han er allikevel enig i at KI kan gjøre det enklere å planlegge kriminelle aktiviteter.
Samtidig tror han noe av bekymringen til forskerne bak den nye artikkelen er litt overdrevet.
At hvem som helst skal begynne å bruke mørk KI, tror han er lite sannsynlig.
– Jeg tror ikke det er en kjempestor trussel. Den som har lyst til å finne bombeoppskrifter eller andre onde ting, kan fint gjøre det i dag, sier Goodwin.
Viktig at selskapene tar det på alvor
Forskerne bak artikkelen tok kontakt med selskapene bak chatbotene de jailbreaket.
Annonse
Responsen var lunken, skriver de i artikkelen.
Dette er et problem, mener Vahiny Gnanasekaran.
Hun forsker på cybersikkerhet ved SINTEF Digital og NTNU.
– Jeg tenker det er viktig at selskaper som får tips om at folk klarer å få tak i farlig informasjon, tar det på alvor, sier Gnanasekaran.
Vahiny Gnanasekaran tar doktorgrad om menneskelige faktorer i cybersikkerhet ved SINTEF og NTNU.(Foto: Karoline Ravndal Lorentzen / SINTEF)
Problemene kan fikses
Hun forklarer at problemene kan fikses på flere nivåer.
Farlig informasjon burde egentlig ha blitt fjernet før modellen ble trent opp. Men selv om dataene ikke ble rensket opp tilstrekkelig, er det ikke for sent.
– Du kan fjerne læring, selv om informasjonen har vært tilgjengelig i treningsdataene. Så du trenger ikke å trene opp hele modellen på nytt, sier Gnanasekaran.
Samtidig vil KI-modellene fortsette å lære.
Derfor må sikkerheten følges opp jevnlig, påpeker hun.
Jailbreaking er et potensielt problem for alle KI-tjenester, påpeker Goodwin.
– Når KI brukes veldig mange steder, overalt i offentlig og privat sektor, så kan jeg antageligvis manipulere det til min fordel, sier professoren.
Slike angrep gjøres for å gagne seg selv. For eksempel at noen lurer til seg mindre skatt eller en bedre rente hos banken.
Eller det kan brukes til å skade andre, som å dele ut feil diagnoser ved et sykehus.
– Når disse chatbotene kommer med feilaktige legeråd eller bombeoppskrifter eller hvordan man kan mobbe medstudentene sine, så bør de som lager chatbotene, stilles litt til veggs og få et ansvar, sier Goodwin.