100-mal schneller: Neue Methode zeigt erstmals, wann Qubits versagen
Durchbruch bei Qubits: Neue Messmethode misst den Informationsverlust 100-mal schneller. Echtzeit-Tracking macht Quantencomputer endlich stabiler.
Blick in das Herz des IBM Quantum System Two: Das Foto zeigt die komplexe Kryostat-Struktur, die notwendig ist, um die supraleitenden Qubits auf Temperaturen nahe dem absoluten Nullpunkt zu kühlen. In diesem empfindlichen System müssen Störungen und der daraus resultierende Informationsverlust präzise kontrolliert werden. Eine neue Messmethode ermöglicht es nun, diese Instabilitäten 100-mal schneller als bisher zu erfassen.
Foto: picture alliance/dpa | Wolf von Dewitz
Quantencomputer gelten als Hoffnungsträger für Berechnungen, an denen heutige Superrechner scheitern. Doch die zugrunde liegenden Recheneinheiten, die Qubits, sind extrem instabil. Ein internationales Forschungsteam hat nun eine Methode entwickelt, mit der sich der Informationsverlust in Qubits 100-mal schneller messen lässt als bisher. Das ermöglicht erstmals ein Tracking in Echtzeit.
Inhaltsverzeichnis
Quantencomputer im Alltag noch nicht fehlerfrei
Quantencomputer sind heute noch weit davon entfernt, im Alltag fehlerfrei zu arbeiten. Das Hauptproblem ist ihre mangelnde Zuverlässigkeit. Die sensiblen Quanteninformationen gehen oft verloren, bevor die Berechnung abgeschlossen ist. „In Quantencomputern werden Informationen mithilfe sogenannter Qubits (Quantenbits) übertragen und gespeichert. Doch Quanteninformationen können schnell verloren gehen“, erklärt Jeroen Danon, Professor am Institut für Physik der Norwegischen Universität für Wissenschaft und Technologie (NTNU).
Bisher war es für die Wissenschaft schwierig, genau zu bestimmen, wie schnell diese Informationen im Einzelfall verschwinden. Das erschwert die Kalibrierung und den stabilen Betrieb der Prozessoren massiv.
Das Rätsel der schwankenden Lebensdauer
Besonders bei supraleitenden Qubits variiert die Zeitspanne, in der Informationen erhalten bleiben, scheinbar willkürlich. „Bei den weit verbreiteten supraleitenden Qubits ist die Zeit, die es dauert, bis Informationen verschwinden, im Durchschnitt akzeptabel. Aber sie scheint im Laufe der Zeit zufällig zu variieren“, so Danon weiter. Ohne eine schnelle und zuverlässige Messmethode lässt sich dieses Problem kaum in den Griff bekommen.
Bisherige Standardverfahren benötigen für eine einzige Messung dieser sogenannten Relaxationszeit () etwa 1 Sekunde. In der Welt der Quantenphysik ist das eine Ewigkeit. Innerhalb dieser Sekunde können sich die Bedingungen im Chip bereits mehrfach verändert haben. Die Folge: Die Messergebnisse sind lediglich Durchschnittswerte, die schnelle Schwankungen komplett ausblenden.
In 11 Millisekunden zur präzisen Diagnose
In Kooperation mit dem Niels-Bohr-Institut in Kopenhagen haben die Forschenden nun eine Lösung präsentiert. „Wir haben es geschafft, dies in etwa 10 Millisekunden zu tun, also mehr als 100-mal schneller. Und mehr oder weniger in Echtzeit“, sagt Danon. Tatsächlich drückt die neue Methode die Messzeit auf rund 11 Millisekunden.
Das Verfahren basiert auf einem adaptiven Bayes-Algorithmus, der direkt auf der Steuerungshardware (FPGA) des Quantencomputers läuft. Anstatt wie früher tausende Messungen starr zu wiederholen, passt das System die Messintervalle dynamisch an die bereits gewonnenen Daten an.
Die Vorteile der neuen Methode auf einen Blick:
- Geschwindigkeit: Die Messzeit sinkt von 1 Sekunde auf rund 11 Millisekunden.
- Echtzeit-Fähigkeit: Schnelle Veränderungen der Qubit-Qualität werden sofort sichtbar.
- Ursachenforschung: Mikroskopische Rauschquellen lassen sich präziser identifizieren.
- Effizienz: Die Kalibrierung von Quantenprozessoren wird deutlich beschleunigt.
Unsichtbare Fehlerquellen werden sichtbar
Durch die enorme Beschleunigung beobachtete das Team Phänomene, die zuvor im statistischen Rauschen untergingen. So zeigten sich Sprünge in der Lebensdauer innerhalb von nur zehn Millisekunden. Bisherige Annahmen gingen davon aus, dass solche Instabilitäten – oft hervorgerufen durch atomare Defekte in der Materialstruktur, sogenannte Zwei-Niveau-Systeme (TLS) – eher im Minutenbereich auftreten.
Diese Erkenntnisse sind für die Weiterentwicklung der Hardware von enormer Bedeutung. „Dies wiederum wird es einfacher machen, die zugrunde liegenden Ursachen zu identifizieren, die dazu führen, dass die Informationen verschwinden“, betont Jeroen Danon. Die Ergebnisse verändern die Art und Weise, wie Quantenprozessoren künftig kalibriert und getestet werden.
Ein Beitrag von: