Googles Algorithmus löst Drei-Jahres-Aufgabe in zwei Stunden
Ein Forschungsteam von Google Quantum AI hat einen neuen Algorithmus vorgestellt, der Quantencomputer deutlich näher an reale Anwendungen bringen soll. Quantum Echoes läuft auf Googles Chip Willow rund 13.000-mal schneller als klassische Supercomputer. Fachleute sprechen von einem Meilenstein.
Google Quantum AI zeigt mit Quantum Echoes wie Quantencomputer in Chemie und Materialforschung nutzbar werden – erstmals mit überprüfbarem Quantenvorteil
Foto: picture alliance / Cover Images | Google/Cover Images
Ein Beispiel: Für eine klar definierten Aufgabe dauert die Berechnung mit einem klassischen Supercomputer über drei Jahre, während Googles Quantenchip etwa zwei Stunden gebraucht hat.
Ein neuer Algorithmus, kein neuer Quantencomputer
Bei Quantum Echoes handelt es sich um einen neuen Algorithmus, nicht um einen neuen Quantencomputer. Laut Google der erste Algorithmus, der einen verifizierbaren Quantenvorteil bietet, also eine Rechenaufgabe, deren Ergebnis von anderen Forschungsgruppen unabhängig bestätigt werden kann. Damit will das Unternehmen den Übergang von reinen Demonstrations-Experimenten zu überprüfbaren wissenschaftlichen Anwendungen markieren.
Die Experimente liefen auf dem bereits bekannten Willow-Chip, der je nach Konfiguration über 65 bis 105 Qubits verfügt. Die Hardware gilt als stabil und besonders fehlerarm, der eigentliche Durchbruch liegt jedoch auf der Softwareseite.
Quantum Echoes ist so konzipiert, dass er nicht nur auf Googles eigener Hardware funktioniert: Auch andere Forschungsgruppen können ihn auf ihren Quantenprozessoren ausführen, um die Ergebnisse zu überprüfen. Diese Verifizierbarkeit über Plattformgrenzen hinweg ist ein zentrales Element des Projekts.
Damit positioniert sich Google klar im Wettbewerb mit IBM, IonQ und Rigetti, die ebenfalls an ähnlichen Ansätzen arbeiten. IBM etwa konzentriert sich derzeit stärker auf Fehlerkorrektur und Skalierbarkeit und hat bislang keinen vergleichbar überprüfbaren Quantenvorteil veröffentlicht.
Wie Googles Quantum Echoes funktionieren
Hinter dem markanten Namen verbirgt sich der sogenannte Out-of-Time-Order-Correlator (OTOC) Algorithmus, ein mathematisches Konzept, das ursprünglich entwickelt wurde, um die Stabilität und Informationsausbreitung in Quantensystemen zu untersuchen.
OTOCs beschreiben, wie stark zwei Quantenzustände miteinander verflochten sind, wenn sie zu unterschiedlichen Zeiten gemessen werden. Vereinfacht gesagt zeigen sie, wie eine kleine Störung im System im Laufe der Zeit anwächst und sich ausbreitet. Vergleichbar mit dem berühmten „Schmetterlingseffekt“ in der Chaostheorie, nur im Maßstab einzelner Quanten.
Dieses Prinzip macht das Forschungsteam sich zu nutzen. Ziel ist es, Quanteninformationen im Prozessor sichtbar zu machen und zu verstehen, wie Rauschen, Fehler und physikalische Störung die Rechenprozesse beeinflussen.
Der Algorithmus unter der Lupe
Das Experiment läuft in mehreren Phasen ab:
- Vorwärtsoperationen: Zunächst führt der Quantencomputer eine Reihe genau definierter Quantenoperationen durch, die einen bestimmten Ausgangszustand erzeugen.
- Gezielte Störung: Dann wird eines der Qubits bewusst manipuliert, etwa durch einen kurzen Mikrowellenimpuls oder einen Phasenfehler. Diese Störung breitet sich im gesamten Prozessor aus, weil die Qubits miteinander verschränkt sind.
- Rückwärtsoperationen: Anschließend werden alle Operationen in umgekehrter Reihenfolge wiederholt. Dieses „Zurückspulen“ entspricht dem Versuch, den ursprünglichen Zustand wiederherzustellen. Wenn das perfekt gelingt, wäre das System ideal isoliert. In der Praxis aber entstehen Abweichungen.
- Messung des Echos: Zum Schluss wird der Zustand des Systems erneut ausgelesen. Das resultierende „Echo“ zeigt, wie stark sich die ursprüngliche Information durch Rauschen oder Wechselwirkungen verändert hat.
Dieses Quantenecho liefert also eine Art Zeitspiegel: Es offenbart, welche Teile der Quanteninformation stabil blieben und welche durch Umwelteinflüsse oder Hardwarefehler zerstört wurden. Daraus lässt sich berechnen, wie robust der Prozessor gegenüber Störungen ist und wie sich Informationsflüsse innerhalb des Chips entwickelt. Oder wie Google es in offiziellen Quantum AI Blogpost sinngemäß beschreibt: „Wir drehen die Zeit im Quantencomputer zurück, um zu verstehen, wie er wirklich funktioniert.“
Die Stärke von „Quantum Echoes“ liegt also darin, beobachtbare physikalische Größen in Quantenprozessoren messbar zu machen, die bislang nur theoretisch beschrieben werden konnten. Das Verfahren trennt gezielt Quantenrauschen von echter Informationsdynamik, was Forschenden hilft, Hardwarefehler besser zu verstehen, präzisere Modelle zu entwickeln und zukünftige Quantenchips zu optimieren.
NMR als erstes Testfeld
NMR ist ein zentrales Messverfahren, mit dem sich atomare Strukturen und Bindungen bestimmen lassen, etwa in der Chemie oder Medizin. In Zusammenarbeit mit internationalen Forschungsteams nutzte Google „Quantum Echoes“ hier als eine Art „molekulares Lineal“, um Abstände und Kopplungen zwischen Atomen präzise zu vermessen.
Getestet wurden Moleküle mit 15 und 28 Atomen. Die Ergebnisse stimmten mit klassischen NMR-Daten überein, lieferten aber zusätzliche Informationen über chemische Strukturen, die herkömmliche Verfahren nicht erfassen können. Google bezeichnet diesen Ansatz als „Quantum-Scope“ – eine Anspielung auf Teleskope und Mikroskope, die neue Dimensionen des Sichtbaren erschließen.
Michel Devoret, leitender Wissenschaftler bei Google Quantum AI und Physik-Nobelpreisträger, fasst das Potenzial so zusammen: „Diese neue Arbeit präsentiert den Quantencomputer als Werkzeug, um molekulare Strukturen aufzudecken – nicht nur in der NMR, sondern künftig vielleicht auch in der Quantensensorik.“
Noch handelt es sich um Grundlagenforschung. Laut Google könnte die Methode aber künftig Pharmaforschung, Materialentwicklung und Batteriedesign beschleunigen, da sie eine bislang unerreichte Auflösung molekularer Prozesse ermöglicht.
Ein Schritt, kein Quantensprung
Bereits 2019 hatte Google mit dem Quantenchip Sycamore einen angeblichen „Quantenvorteil“ verkündet. Eine Berechnung, die auf einem Supercomputer 10.000 Jahre dauern sollte, bewältigte der Chip in wenigen Minuten. Doch der Erfolg wurde bald relativiert: Andere Forschungsteams fanden Wege, dieselbe Aufgabe mithilfe effizienterer klassischer Algorithmen ebenfalls in Minuten zu lösen. Das aktuelle Experiment mit Quantum Echoes zeigt daher eher einen methodischen Fortschritt als einen endgültigen Beweis für Quantenüberlegenheit.
Laut Michel Devoret sei der Algorithmus dennoch „ein weiterer Meilenstein“, weil die Berechnungen überprüfbar seien.
„Wenn also ein anderer Quantencomputer (mit Willow-System) dieselbe Berechnung durchführen würde, wäre das Ergebnis dasselbe. Dies ist ein neuer Schritt in Richtung einer vollwertigen Quantenberechnung“, sagt Devoret
Die Ergebnisse zeigen erstmals, dass ein Quantencomputer nicht nur simulieren, sondern reale Messverfahren physikalisch erweitern kann. Dennoch bleibt der Schritt vorerst experimentell: Die Arbeit wurde bislang nicht von unabhängigen Fachgutachtern geprüft, und das Verfahren ist auf kleine Molekülsysteme beschränkt. Der eigentliche Wert liegt daher weniger im unmittelbaren Nutzen, sondern in der Verifizierbarkeit und Reproduzierbarkeit der Resultate.
Ein Beitrag von: