Der Quantencomputer hat den Supercomputer knapp überholt und zeigt den Nutzen lauter Quantencomputer – ScienceDaily


Trotz stetiger Verbesserungen bei Quantencomputern sind sie immer noch laut und fehleranfällig, was zu fragwürdigen oder falschen Antworten führt. Wissenschaftler gehen davon aus, dass sie die heutigen „klassischen“ Supercomputer erst in fünf oder zehn Jahren wirklich übertreffen werden, bis die Forscher die Fehler, die verschränkte Quantenbits oder Qubits verursachen, angemessen korrigieren können.

Eine neue Studie zeigt jedoch, dass es auch ohne gute Fehlerkorrektur Möglichkeiten zur Fehlerminderung gibt, die Quantencomputer heute nützlich machen könnten.

Forscher von IBM Quantum in New York und ihre Mitarbeiter an der University of California, Berkeley und dem Lawrence Berkeley National Laboratory berichten heute (14. Juni) in der Zeitschrift Natur dass sie einen 127-Qubit-Quantencomputer gegen einen hochmodernen Supercomputer antreten ließen und den Supercomputer in mindestens einer Art von Berechnung besiegten.

Die Berechnung wurde nicht gewählt, weil sie für klassische Computer schwierig sei, sagen die Forscher, sondern weil sie denen ähnelt, die Physiker ständig durchführen. Entscheidend ist, dass die Berechnung zunehmend komplexer gestaltet werden könnte, um zu testen, ob die heutigen verrauschten und fehleranfälligen Quantencomputer für bestimmte Arten gängiger Berechnungen genaue Ergebnisse liefern können.

Die Tatsache, dass der Quantencomputer mit zunehmender Komplexität der Berechnung die nachweislich richtige Lösung lieferte, während der Supercomputeralgorithmus eine falsche Antwort lieferte, gibt Anlass zur Hoffnung, dass Quantencomputeralgorithmen mit Fehlerminderung anstelle der schwierigeren Fehlerkorrektur Spitzenleistungen erbringen könnten physikalische Probleme, wie das Verständnis der Quanteneigenschaften von Supraleitern und neuartigen elektronischen Materialien.

„Wir betreten ein Regime, in dem der Quantencomputer möglicherweise Dinge tun kann, die aktuelle Algorithmen auf klassischen Computern nicht können“, sagte Sajant Anand, Doktorand der UC Berkeley und Co-Autor der Studie.

„Wir können beginnen, Quantencomputer als Werkzeug zur Untersuchung von Problemen zu betrachten, die wir sonst nicht untersuchen könnten“, fügte Sarah Sheldon, Senior Managerin für Quantentheorie und -fähigkeiten bei IBM Quantum, hinzu.

Umgekehrt könnte der Sieg des Quantencomputers über den klassischen Computer auch zu neuen Ideen zur Verbesserung der Quantenalgorithmen führen, die jetzt auf klassischen Computern verwendet werden, so Co-Autor Michael Zaletel, außerordentlicher Professor für Physik an der UC Berkeley und Inhaber des Thomas-und-Alison-Schneider-Lehrstuhls Physik.

„Als ich mich darauf einließ, war ich mir ziemlich sicher, dass die klassische Methode besser abschneiden würde als die Quantenmethode“, sagte er. „Also hatte ich gemischte Gefühle, als die rauschfreie extrapolierte Version von IBM besser abschnitt als die klassische Methode. Aber darüber nachzudenken, wie das Quantensystem funktioniert, könnte uns tatsächlich dabei helfen, die richtige klassische Herangehensweise an das Problem zu finden. Während der Quantencomputer dies tat.“ Etwas, was der klassische Standardalgorithmus nicht konnte. Wir glauben, dass es eine Inspiration dafür ist, den klassischen Algorithmus zu verbessern, damit der klassische Computer in Zukunft genauso gut funktioniert wie der Quantencomputer.

Erhöhen Sie den Lärm, um ihn zu unterdrücken

Ein Schlüssel zum scheinbaren Vorteil des Quantencomputers von IBM ist die Quantenfehlerminderung, eine neuartige Technik zum Umgang mit dem Rauschen, das mit einer Quantenberechnung einhergeht. Paradoxerweise erhöhten IBM-Forscher das Rauschen in ihrem Quantenschaltkreis kontrolliert, um noch lautere, weniger genaue Antworten zu erhalten, und extrapolierten dann rückwärts, um die Antwort abzuschätzen, die der Computer erhalten hätte, wenn es kein Rauschen gegeben hätte. Dies erfordert ein gutes Verständnis des Rauschens, das Quantenschaltungen beeinflusst, und eine Vorhersage, wie es sich auf die Ausgabe auswirkt.

Das Problem des Rauschens entsteht, weil es sich bei den Qubits von IBM um empfindliche supraleitende Schaltkreise handelt, die die Nullen und Einsen einer binären Berechnung darstellen. Wenn die Qubits für eine Berechnung verschränkt werden, können unvermeidbare Belästigungen wie Hitze und Vibration die Verschränkung verändern und zu Fehlern führen. Je größer die Verschränkung, desto schlimmer sind die Auswirkungen von Lärm.

Darüber hinaus können Berechnungen, die sich auf einen Satz von Qubits auswirken, zu zufälligen Fehlern in anderen, unbeteiligten Qubits führen. Zusätzliche Berechnungen verstärken diese Fehler dann. Wissenschaftler hoffen, solche Fehler mithilfe zusätzlicher Qubits überwachen zu können, damit sie korrigiert werden können – die sogenannte fehlertolerante Fehlerkorrektur. Aber das Erreichen einer skalierbaren Fehlertoleranz sei eine große technische Herausforderung, und ob es in der Praxis für eine immer größere Anzahl von Qubits funktionieren werde, müsse sich noch zeigen, sagte Zaletel.

Stattdessen entwickelten IBM-Ingenieure eine Strategie zur Fehlerminderung, die sie „Zero Noise Extrapolation“ (ZNE) nannten und die probabilistische Methoden nutzt, um das Rauschen auf dem Quantengerät kontrollierbar zu erhöhen. Auf Empfehlung eines ehemaligen Praktikanten wandten sich IBM-Forscher an Anand, den Postdoktoranden Yantao Wu und Zaletel und baten sie um Hilfe bei der Beurteilung der Genauigkeit der Ergebnisse, die mit dieser Fehlerminderungsstrategie erzielt wurden. Zaletel entwickelt Supercomputer-Algorithmen, um schwierige Berechnungen mit Quantensystemen zu lösen, beispielsweise die elektronischen Wechselwirkungen in neuen Materialien. Diese Algorithmen, die Tensornetzwerksimulationen verwenden, können direkt zur Simulation interagierender Qubits in einem Quantencomputer angewendet werden.

Über einen Zeitraum von mehreren Wochen führten Youngseok Kim und Andrew Eddins von IBM Quantum immer komplexere Quantenberechnungen auf dem fortschrittlichen IBM Quantum Eagle-Prozessor durch, und dann versuchte Anand die gleichen Berechnungen mit modernsten klassischen Methoden auf dem Cori-Supercomputer und Lawrencium-Cluster im Berkeley Lab und der Anvil-Supercomputer an der Purdue University. Als Quantum Eagle im Jahr 2021 auf den Markt kam, verfügte es über die höchste Anzahl hochwertiger Qubits aller Quantencomputer, scheinbar über die Simulationsmöglichkeiten klassischer Computer hinaus.

Tatsächlich würde die exakte Simulation aller 127 verschränkten Qubits auf einem klassischen Computer astronomisch viel Speicher erfordern. Der Quantenzustand müsste durch 2 hoch 127 verschiedene Zahlen dargestellt werden. Das ist 1 gefolgt von 38 Nullen; Typische Computer können rund 100 Milliarden Zahlen speichern, 27 Größenordnungen zu klein. Um das Problem zu vereinfachen, verwendeten Anand, Wu und Zaletel Näherungstechniken, die es ihnen ermöglichten, das Problem auf einem klassischen Computer in angemessener Zeit und zu angemessenen Kosten zu lösen. Diese Methoden ähneln insofern der JPEG-Bildkomprimierung, als sie weniger wichtige Informationen entfernen und nur das behalten, was für genaue Antworten im Rahmen des verfügbaren Speichers erforderlich ist.

Anand bestätigte die Genauigkeit der Ergebnisse des Quantencomputers für die weniger komplexen Berechnungen, doch mit zunehmender Tiefe der Berechnungen unterschieden sich die Ergebnisse des Quantencomputers von denen des klassischen Computers. Für bestimmte spezifische Parameter konnte Anand das Problem vereinfachen und exakte Lösungen berechnen, die die Quantenberechnungen gegenüber den klassischen Computerberechnungen bestätigten. In den größten betrachteten Tiefen waren keine exakten Lösungen verfügbar, dennoch stimmten die Quanten- und klassischen Ergebnisse nicht überein.

Die Forscher weisen darauf hin, dass sie zwar nicht beweisen können, dass die endgültigen Antworten des Quantencomputers für die anspruchsvollsten Berechnungen korrekt waren, Eagles Erfolge bei den vorherigen Durchläufen ihnen jedoch die Gewissheit gaben, dass dies der Fall war.

„Der Erfolg des Quantencomputers war kein fein abgestimmter Zufall. Er funktionierte tatsächlich bei einer ganzen Familie von Schaltkreisen, auf die er angewendet wurde“, sagte Zaletel.

Freundlicher Wettbewerb

Obwohl Zaletel bei der Vorhersage, ob diese Fehlerminderungstechnik für mehr Qubits oder Berechnungen mit größerer Tiefe funktionieren wird, vorsichtig ist, seien die Ergebnisse dennoch inspirierend, sagte er.

„Es hat sozusagen ein Gefühl des freundschaftlichen Wettbewerbs geweckt“, sagte er. „Ich habe das Gefühl, dass wir in der Lage sein sollten, auf einem klassischen Computer zu simulieren, was sie tun. Aber wir müssen cleverer und besser darüber nachdenken – das Quantengerät befindet sich in einem Zustand, in dem es darauf hindeutet, dass wir eines brauchen.“ anderer Ansatz.“

Ein Ansatz besteht darin, die von IBM entwickelte ZNE-Technik zu simulieren.

„Jetzt fragen wir uns, ob wir dasselbe Fehlerminderungskonzept auf klassische Tensornetzwerksimulationen anwenden können, um zu sehen, ob wir bessere klassische Ergebnisse erzielen können“, sagte Anand. „Diese Arbeit gibt uns die Möglichkeit, vielleicht einen Quantencomputer als Verifizierungstool für den klassischen Computer zu verwenden, der das Drehbuch zu dem, was normalerweise gemacht wird, umdreht.“

Die Arbeit von Anand und Zaletel wurde vom US-Energieministerium im Rahmen eines Early Career Award (DE-SC0022716) gefördert. Wus Arbeit wurde durch ein RIKEN iTHEMS-Stipendium unterstützt. Cori ist Teil des National Energy Research Scientific Computing Center (NERSC), der wichtigsten wissenschaftlichen Recheneinrichtung des Office of Science im US-Energieministerium.

Weitere Artikel