DeutschEnglish

Interview: Forschende in Zürich und Jülich erreichen Meilenstein in Quanten-Fehlerkorrektur

Copyright: ETH Zürich / Quantum Device Lab

Quantencomputer versprechen immense Rechenleistungen für die Zukunft, heutige Systeme sind allerdings noch äußerst störanfällig. Forschenden aus der Schweiz, Deutschland und Kanada ist es nun erstmals gelungen, auftretende Fehler im laufenden Betrieb zu korrigieren. Die neue Technik gilt als Meilenstein und wurde heute im renommierten Fachmagazin Nature vorgestellt. Prof. Markus Müller vom Forschungszentrum Jülich und der RWTH Aachen war an der Arbeit beteiligt.

Prof. Müller, Sie haben das Team an der ETH Zürich, das die Experimente durchgeführt hat, unterstützt. Warum kann man hier von einem Meilenstein oder Durchbruch sprechen?

Die hohe Fehleranfälligkeit ist die vielleicht größte Herausforderung, vor der wir im Quantencomputing aktuell stehen. Die Korrektur dieser Fehler ist sehr anspruchsvoll. Sie betreffen die Quantenbits, kurz Qubits, das sind die grundlegenden Informationseinheiten eines Quantencomputers.
Für den Bau von praktischen Quantencomputern ist es entscheidend, Fehler an diesen Qubits schnell genug und wiederholt zu erkennen und zu korrigieren. Wenn sie sich häufen, verfälschen sie die Quantenberechnungen und machen sie zunichte. Dabei lassen sich grob gesagt zwei grundlegende Arten von Fehlern unterscheiden. Bisherige Fehlerkorrekturverfahren konnten diese nicht gleichzeitig erkennen und korrigieren. Das Team um Andreas Wallraff von der ETH Zürich hat nun das erste experimentelle System vorgestellt, das beide Fehlerarten automatisch in einer Art und Weise ausgleichen kann, die es ermöglicht, Ergebnisse von Quantenoperationen praktisch zu nutzen. Von diesen Verfahren werden andere Systeme profitieren, auch in Jülich, beispielsweise im EU-Projekt OpenSuperQ, in dem das Forschungszentrum Jülich mit der ETH Zürich und weiteren europäischen Partnern kooperiert. 

Was ist das für ein System, mit dem dieser Meilenstein erreicht wurde?

Das Korrekturverfahren läuft auf einem Chip, der insgesamt 17 supraleitende Qubits enthält. Er wird bei einer Temperatur von nur 0,01 Kelvin betrieben, also knapp über dem absoluten Nullpunkt. Die in einzelnen Qubits gespeicherte Information ist relativ instabil. Der entscheidende Trick besteht darin, dass man nicht einzelne Qubits, sondern mehrere davon zusammen verwendet – mithilfe des sogenannten Oberflächencodes. Bei dieser Methode wird die Quanteninformation auf mehrere physikalische Qubits verteilt. 9 der 17 Qubits auf dem Chip sind in einem quadratischen Drei-mal-drei-Gitter angeordnet und bilden zusammen ein sogenanntes logisches Qubit: das ist der Wert oder die Einheit, mit der ein Quantencomputer rechnet. Es ist das Pendant zu dem Bit in einem klassischen Digitalcomputer, das üblicherweise die Werte „0“ und „1“ haben kann.

Wie genau funktioniert das Verfahren?

Die Quantenfehlerkorrektur steht immer vor einem grundsätzlichen Problem: Die Quanteninformation geht verloren, wenn man sie ausliest. So sind die Regeln der Quantenphysik. Die übrigen acht Qubits auf dem Chip sind daher ein wenig abgesetzt und dienen als Hilfsqubits. Sie ermöglichen es, Fehler aufzuspüren, ohne die im System gespeicherte Information durch den Auslesevorgang zu stören.

Um zu erkennen, ob im logischen Qubit eine Störung auftritt und die Information verfälscht, werden die acht zusätzlichen Qubits wiederholt und schnell gemessen. Daraus lässt sich dann ableiten, welche Art von Fehler und wo auf dem Chip dieser höchstwahrscheinlich aufgetreten ist. Das logische Qubit, also die Quanteninformation, die auf den anderen neun Qubits gespeichert ist, wird dadurch nicht verfälscht. Die Auswirkungen der entdeckten Fehler lassen sich anschließend durch geeignete Korrekturen an den Qubits beheben. Für die meisten Anwendungen reicht es aber, wenn man die Fehler - wie im vorliegenden Experiment - verfolgt und erst nach dem Ende der Quantenberechnung korrigiert.

Interview: Forschende in Zürich und Jülich erreichen Meilenstein in Quanten-Fehlerkorrektur
Prof. Markus Müller erläutert, was dahintersteckt und welche Hürden auf dem Weg zum praxisreifen Quantencomputer noch genommen werden müssen.

Jülich, 25. Mai 2022 – Quantencomputer versprechen immense Rechenleistungen für die Zukunft, heutige Systeme sind allerdings noch äußerst störanfällig. Forschenden aus der Schweiz, Deutschland und Kanada ist es nun erstmals gelungen, auftretende Fehler im laufenden Betrieb zu korrigieren. Die neue Technik gilt als Meilenstein und wurde heute im renommierten Fachmagazin Nature vorgestellt. Prof. Markus Müller vom Forschungszentrum Jülich und der RWTH Aachen war an der Arbeit beteiligt.

Prof. Müller, Sie haben das Team an der ETH Zürich, das die Experimente durchgeführt hat, unterstützt. Warum kann man hier von einem Meilenstein oder Durchbruch sprechen?

Prof. Markus Müller Forscht an der Schnittstelle von Quantentheorie und Experiment: Prof. Markus Müller vom Forschungszentrum Jülich und der RWTH Aachen

Copyright:  Forschungszentrum Jülich / Sascha Kreklau Die hohe Fehleranfälligkeit ist die vielleicht größte Herausforderung, vor der wir im Quantencomputing aktuell stehen. Die Korrektur dieser Fehler ist sehr anspruchsvoll. Sie betreffen die Quantenbits, kurz Qubits, das sind die grundlegenden Informationseinheiten eines Quantencomputers.

Für den Bau von praktischen Quantencomputern ist es entscheidend, Fehler an diesen Qubits schnell genug und wiederholt zu erkennen und zu korrigieren. Wenn sie sich häufen, verfälschen sie die Quantenberechnungen und machen sie zunichte. Dabei lassen sich grob gesagt zwei grundlegende Arten von Fehlern unterscheiden. Bisherige Fehlerkorrekturverfahren konnten diese nicht gleichzeitig erkennen und korrigieren. Das Team um Andreas Wallraff von der ETH Zürich hat nun das erste experimentelle System vorgestellt, das beide Fehlerarten automatisch in einer Art und Weise ausgleichen kann, die es ermöglicht, Ergebnisse von Quantenoperationen praktisch zu nutzen.

Von diesen Verfahren werden andere Systeme profitieren, auch in Jülich, beispielsweise im EU-Projekt OpenSuperQ, in dem das Forschungszentrum Jülich mit der ETH Zürich und weiteren europäischen Partnern kooperiert.

Was ist das für ein System, mit dem dieser Meilenstein erreicht wurde?

Quantencomputer-Chip, auf einer Leiterplatte montiert Quantencomputer-Chip, auf einer Leiterplatte montiert

Copyright:  ETH Zürich / Quantum Device Lab Das Korrekturverfahren läuft auf einem Chip, der insgesamt 17 supraleitende Qubits enthält. Er wird bei einer Temperatur von nur 0,01 Kelvin betrieben, also knapp über dem absoluten Nullpunkt. Die in einzelnen Qubits gespeicherte Information ist relativ instabil. Der entscheidende Trick besteht darin, dass man nicht einzelne Qubits, sondern mehrere davon zusammen verwendet – mithilfe des sogenannten Oberflächencodes. Bei dieser Methode wird die Quanteninformation auf mehrere physikalische Qubits verteilt. 9 der 17 Qubits auf dem Chip sind in einem quadratischen Drei-mal-drei-Gitter angeordnet und bilden zusammen ein sogenanntes logisches Qubit: das ist der Wert oder die Einheit, mit der ein Quantencomputer rechnet. Es ist das Pendant zu dem Bit in einem klassischen Digitalcomputer, das üblicherweise die Werte „0“ und „1“ haben kann.

Wie genau funktioniert das Verfahren?

Die Quantenfehlerkorrektur steht immer vor einem grundsätzlichen Problem: Die Quanteninformation geht verloren, wenn man sie ausliest. So sind die Regeln der Quantenphysik. Die übrigen acht Qubits auf dem Chip sind daher ein wenig abgesetzt und dienen als Hilfsqubits. Sie ermöglichen es, Fehler aufzuspüren, ohne die im System gespeicherte Information durch den Auslesevorgang zu stören.

Um zu erkennen, ob im logischen Qubit eine Störung auftritt und die Information verfälscht, werden die acht zusätzlichen Qubits wiederholt und schnell gemessen. Daraus lässt sich dann ableiten, welche Art von Fehler und wo auf dem Chip dieser höchstwahrscheinlich aufgetreten ist. Das logische Qubit, also die Quanteninformation, die auf den anderen neun Qubits gespeichert ist, wird dadurch nicht verfälscht. Die Auswirkungen der entdeckten Fehler lassen sich anschließend durch geeignete Korrekturen an den Qubits beheben. Für die meisten Anwendungen reicht es aber, wenn man die Fehler - wie im vorliegenden Experiment - verfolgt und erst nach dem Ende der Quantenberechnung korrigiert.

Was war Ihr Anteil an der Entwicklung?

Schema Quantencomputer-Chip Aufbau des Quantencomputer-Chips mit 17 Qubits (in gelb)

Copyright:  ETH Zürich / Quantum Device Lab Wir sind froh, dass wir unsere Experimentalkollegen mit Charakterisierungstechniken, die wir früher in unserer Gruppe erforscht haben, unterstützen konnten. Es geht dabei um bestimmte Protokolle, die dazu dienen, die gesammelten Messinformationen so zu verarbeiten, dass sich die Qualität des logischen Qubits beurteilen lässt. Diese Verfahren erlaubten es zum Beispiel, die Güte der zu Beginn des Experiments im Fehlerkorrektur-Code gespeicherten Quanteninformation mit einer begrenzten Zahl von Messungen zu bestimmen. Des Weiteren war es möglich, verbleibende Fehler, die trotz der hohen Güte des Experiments gelegentlich auftreten können, ihrer Natur nach zu unterscheiden; insbesondere in Fehler, die durch den Code korrigierbar und nicht korrigierbar sind.

Eine wichtige Hürde auf dem Weg zum praxisreifen Quantenrechner ist genommen. Wie geht es weiter?

Die Entwicklung von Quantencomputern ist derzeit ein heiß umkämpftes Feld in der Quantenforschung, auch Großkonzerne wie Google und IBM mischen hier mit. Das Forschungszentrum Jülich und die RWTH Aachen sind an einer Reihe von Forschungskonsortien beteiligt, die praktische Quantencomputer auf Basis verschiedener vielversprechender physikalischer Plattformen bauen. Die Ansätze reichen von gefangenen Ionen, in den Projekten AQTION und IQuAn, über neutrale Atome in MUNIQC-Atoms bis hin zu supraleitenden Qubits im OpenSuperQ-Projekt und QSolid.

Die Experimente an der ETH Zürich sind beeindruckend und zeigen das Potenzial von Quantenfehlerkorrekturtechniken zum Schutz von Quantenprozessoren vor Störungen. Es ist zu erwarten, dass größere Geräte, die derzeit entwickelt werden, eine komplexere Technologie erfordern werden. Aber wenn sie mit Fehlerkorrekturprotokollen ausgestattet sind, werden sie – auch aufgrund ihrer Größe – letztendlich einen noch höheren Schutz vor Fehlern bieten.