Dokument: Characterizing quantum hardware with imperfect control

Titel:Characterizing quantum hardware with imperfect control
Weiterer Titel:Charakterisierung von Quanten-Hardware mit imperfekter Kontrolle
URL für Lesezeichen:https://docserv.uni-duesseldorf.de/servlets/DocumentServlet?id=66265
URN (NBN):urn:nbn:de:hbz:061-20240722-113837-7
Kollektion:Dissertationen
Sprache:Englisch
Dokumententyp:Wissenschaftliche Abschlussarbeiten » Dissertation
Medientyp:Text
Autor: Brieger, Raphael [Autor]
Dateien:
[Dateien anzeigen]Adobe PDF
[Details]2,58 MB in einer Datei
[ZIP-Datei erzeugen]
Dateien vom 28.06.2024 / geändert 28.06.2024
Beitragende:Prof. Dr. Kliesch, Martin [Gutachter]
Prof. Dr. Bruß, Dagmar [Gutachter]
Dokumententyp (erweitert):Dissertation
Dewey Dezimal-Klassifikation:500 Naturwissenschaften und Mathematik » 530 Physik
Beschreibungen:Quantencomputer versprechen eine Vielzahl an Rechenaufgaben schneller zu lösen als herkömmliche Computer, unter anderem die Primfaktorzerlegung, die Suche in einer unstrukturierten Datenbank, und die Simulation von Systemen in der Quantenchemie. Wir befinden uns momentan in einer Phase in der mit bereits verfügbaren Quantensystemen tatsächlich Aufgaben gelöst werden, welche auf einem herkömmlichen Supercomputer etliche Jahre in Anspruch nehmen würden. Allerdings sind diese Aufgaben noch nicht von praktischem Nutzen. Um diese frühen Quantensysteme zu verbessern sind zuverlässige und effiziente Methoden notwendig, die einerseits die korrekte Funktionsweise verifizieren können, und andererseits in der Lage sind noch vorhandene Fehlerquellen zu charakterisieren. Durch den laufenden Fortschritt und immer größer werdende Systeme werden auch die Anforderungen an diese Charakterisierungs- und Verifizierungsmethoden stetig erhöht. Zum einen ist eine höhere Effizienz in der Anzahl an benötigten Messungen und der Rechenzeit zur Auswertung dieser Messungen nötig, und zum anderen müssen immer kleiner werdende Fehler noch aufgelöst werden. Um letzteres zu erreichen ist es auch vonnöten Fehler im Messprozess durch fehlerhafte Kontrolloperationen mit einzubeziehen. Aus diesem Grund wurden in sich selbst konsistente Protokolle vorgeschlagen, welche nicht nur einzelne Kontrollprozesse (Gatter) charakterisieren, sondern ein Modell des gesamten Systems mit allen Kontrolloperationen gemeinsam. Diese Herangehensweise ist unter dem Namen Gatterset-Tomographie bekannt, und sie wurde mittlerweile zu einer Standardtechnik zur Charakterisierung und Verbesserung von Quantensystemen. Wie zu erwarten führt das lernen eines Modells des gesamten Systems
zu hohen Kosten im Messaufwand und einer hohen Rechenzeit in der Auswertung. Aus diesem
Grund wird Gatterset-Tomographie meist sparsam in einem Experiment angewandt und auch
nur auf kleinen Subsystemen.
Der zentrale Forschungsbeitrag dieser Arbeit ist die Entwicklung eines Datenverarbeitungssystems für Gatterset-Tomographie, welches mit weniger Messeinstellungen und Rechenaufwand
als zuvor möglich auskommt. Dies erreichen wir, indem wir ein komprimiertes Modell schätzen (lernen), welches nur die relevantesten Freiheitsgrade des Systems erfasst. Da das Lernen eines
solchen Modells dem Lösen eines hoch nicht-trivialen Optimierungsproblems entspricht, entwickeln wir einen neuen Optimierungsalgorithmus auf der Riemann’schen Manigfaltigkeit physikalis-
cher Gatter, welches mit Hilfe von Techniken aus dem Feld des maschinellen Lernens optimale Lösungen findet. Um den Algorithmus für Experimentatoren zugängig zu machen, entwickeln
wir ein öffentlich verfügbares Python-Paket. Auf dessen Basis demonstrieren wir die genaue Rekonstruktion eines zwei Qubit Systems von experimentellen Daten aus einem Ionenfallen-
Experiment.
Eine weitere Aufgabe der wir uns in dieser Arbeit widmen, ist die Schätzung von physikalischen Eigenschaften eines Quantenzustands, von dem angenommen wird, er lasse ich wiederholt
in einem Experiment erzeugen. Vorangegangen Arbeiten zeigten, dass man mit zufälligen Messeinstellungen eine Vielzahl an physikalischen Eigenschaften gleichzeitig schätzen kann, wobei
die Anzahl an dafür benötigten Messungen unabhängig von der Systemgröße bleibt. Allerdings wurde dabei bisher der Einfluss fehlerhafter Kontrolloperationen weitgehend außer Acht gelassen.
In dieser Arbeit analysieren wir den Effekt von Gatterabhängigen Fehlern auf Protokolle, die auf zufälligen Messeinstellungen basieren. Von zentraler Bedeutung in unserer Analyse ist die Her-
leitung mathematischer Schranken, welche zeigen, dass diese Protokolle in den meisten Fällen eine inhärente Resistenz gehen Fehler aufweisen. Im Gegensatz dazu identifizieren wir auch Eigenschaften eines Quantensystems, deren Schätzung fehleranfällig sein kann. Insbesondere können Fehler in den Kontrolloperationen zu einem exponentiell verstärkten Fehler in der Schätzung führen.
In ihrer Gesamtheit tragen die Resultate in dieser Arbeit dazu bei, wichtige Charakterisierungsprotokolle für frühe Quantencomputer signifikant besser mit den experimentellen Anforderungen in
Einklang zu bringen.

Quantum computers promise to solve a variety of computational problems faster than existing classical computers, among them the factorization of prime numbers, unstructured database search and the simulation of quantum chemistry systems. We are right in the era where actual computational advantages of current early quantum computers are demonstrated, albeit not yet in computation tasks of practical interest. In order to continuously improve these systems, reliable and efficient verification of their correct operation, as well as methods to characterize remaining error sources are vital.
The ongoing maturing process of quantum computers comes with tighter demands on characterization and verification tasks. Not only is there an increased need for efficiency in the number of measurements and classical post-processing time, but progressively smaller errors need to be resolved as well. In order to achieve the latter task and to estimate ('learn') properties of quantum systems in a reliable way, errors in the measurement process due to imperfect control need to be taken into account. For this reason, self-consistent protocols were proposed, which not only characterize individual quantum operations (gates), but learn a mathematical a model of the system and its dynamics as a whole. This approach is known as gate set tomography, and it has become a standard technique to characterize and improve quantum experiments. Unsurprisingly, learning a model of the whole system comes at a huge cost in the measurement and classical post-processing effort. For this reason it has only been applied sparingly and to small subsystems.
The main contribution of this thesis is the development of a new data processing framework for gate set tomography, which allows us to construct a mathematical model of a subsystem from few random measurement settings with a reduced post-processing time compared to the previous state-of-the-art method. We achieve this by learning a compressed model, which reduces the number of parameters that need to be learned, while still capturing the most relevant degrees of freedom. Since the underlying optimization problem for learning a compressed gate set model is highly non-trivial to solve, we develop a new optimization algorithm on the Riemannian manifold of physical gate sets, which uses techniques from machine learning to arrive at an optimal point. We make this algorithm accessible through a publicly available Python package and use it to accurately learn a full description of a two-qubit trapped ion system.
A different task that we focus on in this thesis is the estimation of physical properties of a quantum state, which we assume can be repeatedly prepared on the system. Previous works showed that using randomized measurements, numerous properties of the quantum state can be estimated, while the number of required measurements remains independent of the system size. Thus far, errors introduced due to imperfect control in the implementation of randomized measurements were insufficiently accounted for. In this thesis we analyze the effects of general gate-dependent noise on the randomized measurement protocol. Central to our results are analytical bounds, which show that for most properties of interest, the randomized measurement protocol is resilient against general gate-dependent noise. However, we also find that certain properties are more difficult to estimate, since for those properties there are noise models under which errors are exponentially amplified in the estimation procedure.
Overall, the results of this thesis contribute to bringing important characterization protocols for early quantum computers significantly closer to current experimental requirements.
Lizenz:Creative Commons Lizenzvertrag
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz
Fachbereich / Einrichtung:Mathematisch- Naturwissenschaftliche Fakultät » WE Physik » Theoretische Physik
Dokument erstellt am:22.07.2024
Dateien geändert am:22.07.2024
Promotionsantrag am:19.03.2024
Datum der Promotion:18.06.2024
english
Benutzer
Status: Gast
Aktionen