Annonse

Hjerneimplantat fanget opp ord fra folks indre stemme

Stumme kan få stemmen tilbake ved å tenke hva de vil si. Men hvordan hindre at private tanker kommer fram? 

Deltakerne i studien fikk operert inn mikroelektroder på overflaten av et område av hjernen.
Publisert

Inne i hodet har vi en stille samtale med oss selv. Denne indre stemmen kan være en nøkkel til å gi mennesker som har mistet taleevnen, stemmen tilbake

Men ikke alt vi tenker inni oss, er ment for andres ører.

Forskere ved Stanford University i USA har jobbet med et system som oversetter hjerneaktivitet til tekst og tale. 

Det er basert på at pasienten konsentrerer seg om hvordan de ville uttalt ordene. Men dette kan være slitsomt og ta lengre tid.  

En ny studie tyder på at det i fremtiden kan holde bare å si noe inni seg. 

Et slikt system vil kunne hjelpe personer med alvorlige tale- og bevegelsesvansker med å kommunisere enklere og mer naturlig, sier en av forskerne bak studien, Erin Kunz ved Stanford University, i en pressemelding. 

– Beviser at det er mulig 

I studien så forskerne at systemet kan fange opp ord og setninger som sies inne i hodet med opptil 74 prosent nøyaktighet. 

– Dette er utrolig spennende, sier Asta Kristine Håberg.

– Studien beviser et konsept, at det er mulig å dekode indre tale, sier Håberg.

Hun er professor ved Institutt for nevromedisin og bevegelsesvitenskap ved NTNU.

Feilprosenten er fortsatt ganske høy, slik at meningen i setningene ofte ikke ble gjengitt riktig. 

– Men det er nok bare et spørsmål og tid og trening, sier Håberg. 

– Er det tankelesing vi ser her? 

– Ja, det er på en måte det. Men det er ikke fri tankelesing. De har fått beskjed om å lese noe inni seg, telle eller tenke på en favoritt-ting. Det er ikke hvilket som helst innfall  den kunstige intelligensen har dekodet. 

Det er heller ikke slik at man nå kan å lese tankene til folk på gata, understreker Håberg. Det krever et inngrep i hjernen og mye teknologi som fungerer sammen. 

Asta Kristine Håberg er professor og hjerneforsker ved NTNU.

Kobling mellom hjerne og datamaskin

Fire deltakere var med i studien. Tre av dem hadde mistet taleevnen på grunn av sykdommen ALS og en på grunn av hjerneslag. 

De hadde fått satt inn et implantat i det motoriske barkområdet i hjernen, som kan kobles til en datamaskin.

Denne typen systemer kalles brain-computer interfaces eller BCI-er på engelsk. 

Det går ut på at signaler fra hjernen oversettes til for eksempel tekst eller tale, til å bevege en protese eller styre en musepeker på en skjerm. 

Det har skjedd store fremskritt de siste årene.

– Den kombinerte kunnskapen om hjernen sammen med utviklingen innen elektrodeteknologi og KI, hvor man nå for eksempel kan gi folk stemmen de hadde før, det er helt nytt, sier Håberg.

Munnbevegelser som tilsvarer lyder

Håberg forklarer hvordan systemet som er brukt i den nye studien, fungerer. 

– De opererer inn en matte med mange elektroder som legges oppå hjernen. Så leses de elektriske signalene. 

Matten ligger over områder som har å gjøre med hvordan du beveger munnen når du snakker. 

– De ser på hjernesignaler som tilsvarer at du åpner munnen, at du beveger leppene og tungen. Dette representerer ulike lyder, som b eller kj. Basert på lydene, kan en kunstig intelligens finne ut hvilke ord personen ville si. 

Så likheter

I den nye studien tok forskerne det et steg videre og sjekket om de kunne fange opp signaler fra vår indre stemme. 

Deltakerne vekslet mellom å tenke på å uttale ord og bare å si dem inne i hodet. 

Det var mulig å fange opp signaler fra begge situasjoner. Signalene lignet hverandre, men var fra en litt annen plass i hjernen for den indre stemmen.

Forskerne hadde flere grunner til å undersøke indre tale, sier Håberg. 

– Man vet at områdene i hjernen for indre tale ligger ganske tett sammen med områdene som lager tale. Dermed kan det være at nevroprotesen, denne matten, plukker opp ting man ikke vil at andre skal høre. 

Indre tale kan fungere bedre for noen pasienter, eller det kan gjøre at man kan svare raskere og på en mer naturlig måte. 

Tolket hjernesignaler i sanntid

En kunstig intelligens ble trent ved at deltakerne sa ulike setninger inni seg. Dette ble satt sammen med et tidligere datasett med forsøk på å uttale ordene.

I neste trinn skulle deltakerne «si» setninger inni seg ut fra et vokabular på 125.000 ord.

Det viste seg at systemet til en viss grad kunne lese av den indre stemmen. I testene ble ordene gjengitt med en treffsikkerhet på mellom 46 og 74 prosent.

For eksempel ble setningen «I don't know how long I've been here» gjengitt riktig.

Andre ganger ble resultatet uforståelig. «We don't have a strict budget» ble til «we don't have a drill press but». 

En av deltakerne i studien med nevroprotese. Hun fikk opp setninger på en skjerm hun skulle si inni seg. Maskinens tolkning kom opp i sanntid under.

Fanget opp spontan telling

Forskerne gjorde deretter et par tester som var designet til å sette i gang den indre stemmen, uten at deltakerne fikk instruks om det. 

I forsøk der de skulle huske piler og telle geometriske former, registrerte dekoderen en indre stemme for «opp, ned, høyre» eller «en, to, tre». 

Deltakerne ble også bedt om å tenke på noe, som teksten til en sang eller et tidlig minne. Resultatet ble for det meste meningsløse setninger med enkelte forståelige fraser. 

Studien viser likevel at det er mulig å fange opp ord fra den indre stemmen. En bakside er at systemet også kan snappe opp ord som ikke var ment å sies høyt.

Beskytte tanker med passord?

Forskerne kom opp med to ideer for å løse problemet. 

De viste at dekoderen kan skille mellom forsøk på uttale ord og indre stemme. Dermed  kunne de instruere systemet til å ignorere indre tale. 

De som var med i studien, foretrakk likevel å snakke via den indre stemmen i testene, siden det var mindre krevende. 

Forskerne testet også en mulig løsning med passordbeskyttelse. Hvis deltakerne ønsket å si noe høyt, skulle de først si et passord inni seg. Her var passordet «chitty chitty bang bang», en frase som sjelden brukes i dagligtalen. 

Maskinen gjenkjente om passordet ble sagt eller ikke i nesten 99 prosent av tilfellene. 

Forskjellig hvor mye folk snakker i hodet

Håberg tror at et system som oversetter fra indre tale, vil kunne hjelpe flere pasienter. 

Samtidig kan det være ulemper. 

– Mange av disse pasientene er avhengige av verden rundt. Det kan hende det kommer ut noe som gjør at verden rundt ikke blir så fornøyd, og da kan man skape flere problemer for seg. 

– Det beste er om bare det man har lyst til å si, kommer fram. 

Hvor viktig er egentlig den indre stemmen for hvordan vi tenker? Er det ofte denne formen tankene våre har, og har alle en indre stemme? 

– Det er mye diskusjon rundt det, sier Håberg. 

Noen tenker kanskje mer i form av bilder, for eksempel. 

– Forskning tyder på at det kan være forskjellig hos folk og at noen har en mer rik indre dialog enn andre. Det er nok et spektrum av hva som er normalt, hvor mye som er verbalt og ikke-verbalt. 

Referanse: 

Erin M. Kunz, m. fl.: «Inner speech in motor cortex and implications for speech neuroprostheses», Cell, 21. august 2025. 

Opptatt av helse, psykologi og kropp?

Mat hjernen med nyheter fra forskning.no om sykdommer, psykologi, kosthold, sex, trening og andre av kroppens mysterier.

Meld meg på nyhetsbrev

Powered by Labrador CMS