I nesten to år ble den lille jenta på bildet filmet for å lære mer om hvordan hun lærte sine første ord.

I to år fulgte forskerne med på hvordan denne jenta lærte å snakke

Amerikanske forskere filmet den lille jenta på bildet, Sam, i nesten to år og skapte en AI-modell som kan hjelpe oss å forstå hvordan barn lærer og forstår sine første ord.

Ball, fugl, mamma og pappa. Et barns første ord er ekstremt viktige. Kanskje spesielt for foreldre som ønsker at barna skal kunne uttrykke sine behov så tidlig som mulig.

Men hvordan lærer og forstår barn egentlig sine første ord?

Det har et amerikansk forskerteam kastet lys over i en ny studie publisert i tidsskriftet Science. De presenterer en ny modell basert på kunstig intelligens (AI) som brukte kameraopptak av et barn fra alderen 6 til 26 måneder til å koble det barnet ser med ord fra foreldrene.

Modellen er basert på en algoritme som kobler sammen ting barnet ser, for eksempel en gryte, et par sko, en bøtte, en ball eller lignende, med utsagn fra for eksempel foreldre som snakker med barnet som spiser, leker eller blir lest for.

Et eksempel kan være et barn som sitter på mammas fang og ser i en bok. Moren sier «se, der er det en baby» og peker på et bilde av en baby i boken. Etter noen få repetisjoner begynner barnet å peke på bildet av babyen når moren sier «baby», noe som indikerer at barnet forstår sammenhengen mellom bildet og ordet.

Her er Sam, filmet i nesten to år, mens moren leser en bok for henne. (Video: Jonathan King)

AI-modellen kan, basert på kameraopptaket av situasjonen, koble ord til bestemte bilder og for eksempel skille kategorien «baby» fra kategorien «katt». På denne måten gir modellen oss kunnskap om hvilke objekter og ord barnet kobler sammen.

Ifølge hovedforskeren bak studien, Brenden Lake, gir studien også nye og verdifulle perspektiver på den klassiske debatten om hvordan barn lærer ord.

Lake er førsteamanuensis ved Centre for Data Science ved New York University og uttaler seg i en pressemelding.

Studien er som nevnt basert på opptak av ett enkelt barn som ble utstyrt med et kamera festet til hodet i 1 prosent av sin våkne tid over en periode på om lag to år. Dette resulterte i 61,5 timer med opptak, noe som tilsvarer rundt en kvart million ord som har blitt knyttet til det barnet ser og samhandler med i hverdagen.

– Selv om studien bare ble gjennomført på ett enkelt barn i 1 prosent av barnets våkne timer, er det likevel det hittil største datasettet av denne typen, og det gir oss et unikt perspektiv på hvordan vi kan studere tidlig språktilegnelse, sier Wai Keen Vong, forsker ved Center for Data Science ved New York University og medforfatter av studien.

Her ser vi Sam med et kamera på hodet når hun er seks måneder gammel.

Kan vise hvordan vi lærer språk

Den nye studien er absolutt interessant, mener Laila Kjærbæk, førsteamanuensis ved Institutt for kultur og lingvistikk ved Syddansk Universitet.

– De siste tiårene har vi diskutert om barn har en medfødt disposisjon for å utvikle språk, eller om språk er noe de tilegner seg gjennom generelle læringsmekanismer, forklarer hun.

Et medfødt anlegg betyr ikke at et barn er født med et komplett språk, understreker Kjærbæk.

– I stedet er det en idé om at det finnes et område i hjernen som er spesielt designet for språk, og at noen grunnleggende språklige strukturer er medfødte. Den andre grenen av forskningen går ut på at språk tilegnes gjennom de samme kognitive evnene som vi bruker til å tilegne oss alt annet. For eksempel kategorisering, der barnet kobler sammen alt som tilhører kategorien «hund» eller «fugl», sier hun.

– En datamodell som den i den nye studien kan hjelpe oss med å komme nærmere et svar på en av de store debattene i språkforskningen, nemlig spørsmålet om arv versus miljø.

Ifølge de amerikanske forskerne tyder resultatene fra den nye studien på at barn først og fremst lærer via en enkel læringsmekanisme, nemlig assosiativ læring, og at de er mindre avhengige av medfødte anlegg for å lære språk.

– Studien vår viser at selv den enkleste assosiative læringsmekanismen, å assosiere ord med ting, er nok for tilegnelse av grunnleggende språkferdigheter, sier Wai Keen Vong.

Svakheter ved studien

Ifølge Isabelle Augenstein, professor ved Institutt for datavitenskap ved Københavns Universitet, har studien flere betydelige svakheter.

– Studien er utført på ett enkelt barn, noe som gjør det svært vanskelig å generalisere om hvordan barn utvikler språk. I tillegg analyserer ikke forskerne spesifikt hvilke ord som blir sagt. Det trengs derfor flere studier med flere barn før vi kan generalisere, sier hun.

Unike data

Ifølge Tuukka Routsalo, førsteamanuensis i maskinlæring ved Institutt for datavitenskap ved Københavns Universitet, er teknologien bak den nye studien allerede kjent.

– Modellen er ikke revolusjonerende i seg selv. Studien tar heller ikke for seg hva barnet faktisk lærer, eller hvordan informasjonen lagres i hjernen, forklarer han:

– Det nye er at dataene er basert på reelle erfaringer fra barnets hverdag. Det er veldig spennende.

Han får støtte av språkforsker Laila Kjærbæk.

– Vanligvis undersøker man hvilke ord barn forstår ved å be foreldrene skrive dem ned i et spørreskjema. Men foreldrene vet ikke hva barnet forstår og ikke forstår. Derfor er denne metoden veldig interessant som et supplement, fordi den gjør det mulig å ta utgangspunkt i det barnet ser og koble det til spesifikke ord og lyder, sier hun.

I tillegg kan AI-modellen effektivisere forskningen fordi den er i stand til å skape mønstre og sammenhenger på tvers av millioner av ord og bilder av ting.

– Generelt er studier av barns språkforståelse ekstremt ressurskrevende. Bare en times videoopptak må først transkriberes og analyseres av en eller flere forskere, sier Laila Kjærbæk og avslutter:

– Derfor er AI-modellen veldig spennende fordi den kan gjøre det mulig å koble sammen ord og synsinntrykk på en langt mer effektiv måte enn om jeg eller en kollega skulle gjøre det fra bunnen av.

Referanse:

Wai Keen Vong mfl.: Grounded language acquisition through the eyes and ears of a single child. Science, 2024. (Sammendrag) Doi/10.1126/science.adi1374

© Videnskab.dk. Oversatt av Lars Nygaard for forskning.no. Les originalsaken på videnskab.dk her.

LES OGSÅ

Få med deg ny forskning

MELD DEG PÅ NYHETSBREV

Du kan velge mellom daglig eller ukentlig oppdatering.

Powered by Labrador CMS