De
superraske kvantedatamaskinene er ennå ikke til å stole på. Til det er de
altfor ustabile. Men rundt omkring i verden sitter folk og forbedrer dem. Noen
sånne sitter i Norge.
– I kvantedatamaskiner overføres og lagres informasjonen ved hjelp av såkalte qubits, kvantebiter. Men kvanteinformasjonen kan raskt gå tapt, sier Jeroen Danon, professor ved Institutt for fysikk ved NTNU.
Hvor raskt går informasjon tapt? Det er det vrient å si.
Prøveholderen som plasseres i bunnen av en ekstremt nedkjølt forskningsmaskin ved Niels Bohr-instituttet ved Københavns universitet. Her sitter selve kvantedatamaskinen.(Foto: Quantum Machines)
Manglet skikkelig
målemetode
– I de
mye brukte superledende kvantebitene er tida det tar i gjennomsnitt brukbar.
Men det kan variere helt tilfeldig over tid, sier Danon.
Da er det uheldig at vi ikke engang har hatt skikkelige målemetoder for å se hvor
lang tid det tar før informasjon i kvantebiter er borte.
Dette er det naturlig
nok helt nødvendig å få skikk på om vi skal få kvantedatamaskiner til å fungere
mer stabilt enn i dag.
Inn
kommer Danon og kolleger med en løsning:
– Med et
internasjonalt team ledet av Niels Bohr Institutet i København har vi utviklet en ny
målingsmetode. Med denne kan vi måle tiden det tar å miste informasjon med en
helt uovertruffen hastighet og nøyaktighet, sier Danon.
Forskningsutstyr ved Niels Bohr-instituttet. Den store kjøleenheten som holder kvantedatamaskinen svært kald (til venstre), og elektronikken som styrer den (til høyre).(Foto: Quantum Machines)
Måler 100 ganger raskere
Før tok
det rundt ett sekund å måle hvor lang tid det tar før informasjon er borte. Det
er svært lenge i denne sammenhengen.
– Vi
klarte å gjøre det på omtrent 10 millisekunder, mer enn 100 ganger raskere. Og altså faktisk mer eller mindre i sanntid, sier Danon.
På den
måten kan de følge tapet av informasjon mye mer nøyaktig etter hvert som det
finner sted. Og de kan også observere små og raske endringer som var
usynlige før.
– Da er
det også lettere å finne de underliggende årsakene som gjør at informasjonen
forsvinner, sier forskeren.
Funnene
endrer hvordan vi bør kalibrere og teste kvanteprosessorer. Da lærer vi mer om
de mikroskopiske prosessene som begrenser ytelsen til dagens
kvantedatamaskiner. Og det er godt nytt, mener forskeren.