Einem Team von IBM-Forschern ist es in Zusammenarbeit mit der UC Berkeley und der Purdue University gelungen, nützliche Quantencomputer aus einem der heutigen NISQ-Computer (Noisy Intermediate Scale Quantum) zu extrahieren. Für die Berechnungen nutzte das Team Eagle, eine der neuesten Quantum Processing Units (QPU) von IBM Es wurde erwartet, dass sie scheitern würden inmitten von Qubit-Rauschen. Allerdings wird ein cleverer Feedback-Mechanismus zwischen IBMs 127-Qubit-Eagle-QPU und Supercomputern der UC Berkeley und der Purdue University von IBM verwendet gelang es zu beweisen Es könnte nützliche Ergebnisse aus einer verrauschten QPU ableiten. Die Tür zum Quantennutzen steht offen – und zwar viel früher als erwartet.
Unsere Quantencomputer aus der NISQ-Ära sind an unsere Standard-Supercomputer angeschlossen – die leistungsstärksten Maschinen, die die Menschheit kennt und die Billionen von Operationen pro Sekunde ausführen können. So mächtig sie auch sind, ist es eine universelle Wahrheit, dass sich zwei aneinander gefesselte Subjekte nur so schnell bewegen, wie es das langsamste von ihnen zulässt. Und der Supercomputer war für dieses Experiment bereits überlastet und nutzte fortschrittliche Techniken, um mit der Komplexität der Simulation Schritt zu halten.
Als die Simulation der Qubits zu komplex wurde, als dass der Supercomputer die Ergebnisse einfach mit „brutaler Gewalt“ auswerten konnte, begannen die Forscher der UC Berkeley mit der Verwendung von Komprimierungsalgorithmen – Tensor-Netzwerkzuständen. Bei diesen Tensornetzwerkzuständen (Matrizen) handelt es sich im Wesentlichen um Datenwürfel, bei denen die Zahlen, aus denen die Berechnungen bestehen, in einem dreidimensionalen Raum (x, y, z) dargestellt werden, der komplexere Informationsbeziehungen und -volumina verarbeiten kann als eine üblichere 2D-Lösung – Stellen Sie sich eine einfache Excel-2D-Tabelle (x, y) und die vielen weiteren Zeilen vor, die Sie in dieser Konfiguration durchsuchen müssten, wenn Sie eine andere Informationsebene (z) berücksichtigen müssten.
Das bedeutet, dass bereits ein gewisser Nutzen aus NISQ-Quantencomputern gezogen werden kann – es gibt Bereiche, in denen sie Ergebnisse liefern können, die für Standard-Supercomputer – zumindest zeitlich und finanziell – unerreichbar wären, oder wo der Aufwand dafür erforderlich wäre Um diese Ergebnisse zu erzielen, wäre der Aufwand größer als der Gewinn
„Es zeigt sofort die Notwendigkeit neuer klassischer Methoden“ sagte Anand. Und sie prüfen diese Methoden bereits. „Jetzt fragen wir uns, ob wir dasselbe Fehlerminderungskonzept auf klassische Tensornetzwerksimulationen anwenden können, um zu sehen, ob wir bessere klassische Ergebnisse erzielen können.“
Im Wesentlichen gilt: Je genauer Sie vorhersagen können, wie sich Rauschen in Ihrem Quantensystem entwickelt, desto besser wissen Sie, wie dieses Rauschen die korrekten Ergebnisse vergiftet. Man lernt, etwas vorherzusagen, indem man es einfach anstupst und so oft beobachtet, was passiert, dass man die Hebel erkennen kann, die es antreiben.
Einige dieser Hebel haben damit zu tun, wie und wann Sie Ihre Qubits aktivieren (einige Schaltkreise verwenden mehr Qubits, andere erfordern die Anordnung dieser Qubits in mehr oder weniger Quantengattern mit komplexeren Verschränkungen zwischen bestimmten Qubits …) IBM-Forscher mussten lernen genau, wie viel und welches Rauschen durch die Bewegung jedes dieser Knöpfe in seinem 127-Qubit-Quantum Eagle entstanden ist – denn wenn man weiß, wie man Rauschen erzeugt, beginnt man, es zu kontrollieren. Wenn Sie verstehen, wie es überhaupt aussieht, können Sie es erklären und so versuchen, es zu verhindern oder es auszunutzen.
Aber wenn Sie nur Berechnungen auf Ihrem lauten Computer ausführen, wie können Sie dann wissen, dass diese Berechnungen korrekt sind? Hier kommen Standard-Supercomputer – und die Suche nach einer grundlegenden Wahrheit – ins Spiel.
Das IBM-Team erhielt Zugang zu zwei Supercomputern – dem National Energy Research Scientific Computing Center (NERSC) des Berkeley National Lab und dem von der NSF finanzierten Anvil-Supercomputer an der Purdue University. Diese Supercomputer würden dieselben Quantensimulationen berechnen, die IBM auf seiner 127-Qubit-Eagle-QPU durchgeführt hat – in ihnen nach Bedarf aufgeteilt und auf eine Weise, die den Vergleich beider Ergebnisse der Supercomputer ermöglichen würde. Jetzt haben Sie eine Grundwahrheit – die Lösung, von der Sie wissen, dass sie richtig ist, erreicht und von Standard-Supercomputern überprüft wird. Jetzt ist die Ampel grün, um Ihre verrauschten Ergebnisse mit den richtigen zu vergleichen.
„IBM fragte unsere Gruppe, ob wir daran interessiert wären, das Projekt zu übernehmen, da wir wussten, dass unsere Gruppe auf die für diese Art von Experiment erforderlichen Rechenwerkzeuge spezialisiert war.“ sagte der Diplomforscher Sajant Anand von der UC Berkeley. „Zuerst dachte ich, es sei ein interessantes Projekt, aber ich hatte nicht damit gerechnet, dass die Ergebnisse so ausfallen würden.“
Dann geht es „nur noch“ darum, ein „Finde die Unterschiede“-Rätsel zu lösen: Sobald Sie erkennen, wie genau das Vorhandensein von Rauschen die Ergebnisse verzerrt hat, können Sie dessen Vorhandensein kompensieren und die gleiche „Grundwahrheit“ ermitteln, die in der vorhanden war Ergebnisse von Standard-Supercomputern. IBM nennt diese Technik Zero Noise Extrapolation (ZNE).
Es handelt sich um einen symbiotischen Prozess: Das für das Papier verantwortliche IBM-Team möchte seine Fehlerminderungstechniken – und Äquivalente zur Zero Noise Extrapolation – auch auf Standard-Supercomputer übertragen. Zwischen der Rohleistungssteigerung durch die neuesten Hardwareentwicklungen und Algorithmen- und Technikoptimierungen (wie der Einsatz intelligenter Komprimierungsalgorithmen) wird die Rohleistung des Supercomputings zunehmen, sodass wir unsere Quantencomputing-Arbeit noch ein wenig weiter in der Ära der Post verifizieren können -NISQ-Quantencomputer und ihr Einsatz der Quantenfehlerkorrektur.
Das ist der Moment, in dem das Seil reißt und die Quantenphysik relativ frei von der Notwendigkeit sein wird, ihre Ergebnisse mit klassischen Techniken zu überprüfen. Das ist es, was das Quantencomputing verlangsamt (natürlich abgesehen vom Fehlen einer Fehlerkorrektur, die es den Qubits ermöglicht, die Berechnungen selbst durchzuführen).
In einem Interview mit Tom’s Hardware für diesen Artikel hat Dr. Abhinav Kandala, Manager bei Quantum Capabilities and Demonstrations bei IBM Quantum, es wunderbar ausgedrückt:
Außer mit Quanteneffekten können Sie dann die Komplexität des Problems über das hinaus steigern, was Supercomputer bewältigen können – und da Sie korrekt modelliert haben, wie sich Rauschen auf das System auswirkt, können Sie die Bereinigungsschritte immer noch an Ihren verrauschten Ergebnissen durchführen … mit einem gewissen Maß an Sicherheit. Je weiter Sie von den „absolut wahrheitsgetreuen“ Ergebnissen von Standard-Supercomputern entfernt sind, desto wahrscheinlicher ist es, dass Sie schwerwiegende Fehler in die Berechnungen einbauen, die in Ihrem Rauschmodell nicht berücksichtigt wurden (und auch nicht berücksichtigt werden konnten).
Aber obwohl Sie Ihren Ergebnissen vertrauen können, haben Sie tatsächlich nützliche Quantenverarbeitungsfunktionen geliefert, die über das hinausgehen, was mit klassischen Turing-Maschinen der aktuellen Generation wie dem Supercomputer in Berkeley erreicht werden kann. Es geht auch über das hinaus, was in unseren aktuellen Computern der NISQ-Ära (Noisy Intermediate Stage Quantum) für möglich gehalten wurde. Und es ist einfach so, dass viele Algorithmen, die für kurzfristige Quantengeräte entwickelt wurden, in die 127 Qubits in IBMs Eagle QPU passen würden, die Schaltkreistiefen von mehr als 60 Schritten an Quantengattern liefern können.
Dr. Kandala fügte dann hinzu: „Was wir mit der Fehlerminderung machen, indem wir Quantenschaltkreise mit geringer Tiefe betreiben und sogenannte Erwartungswerte messen, die Eigenschaften des Zustands messen, ist nicht das Einzige, was die Leute mit Quantencomputern machen wollen, oder ich meine, das Ganze freizuschalten.“ Möglicherweise ist eine Quantenfehlerkorrektur erforderlich, und es herrschte die Meinung vor, dass man nur dann auf etwas Nützliches zugreifen kann, wenn man über einen fehlerkorrigierten Quantencomputer verfügt
„Der entscheidende Teil bestand darin, das Rauschen über die Pulsdehnung hinaus manipulieren zu können.“ sagte Dr. Kandala. „Sobald das zu funktionieren begann, konnten wir kompliziertere Extrapolationen durchführen, die die Verzerrung durch das Rauschen auf eine Weise unterdrücken konnten, die uns vorher nicht möglich war.“
ZNE wird wahrscheinlich zu einem festen Bestandteil jedes Quantencomputing-Ansatzes werden – Fehlerminderung ist eine wesentliche Voraussetzung für die fehleranfälligen NISQ-Computer, die wir derzeit haben, und wird wahrscheinlich auch dann erforderlich sein, wenn wir an der Schwelle zur Fehlerkorrektur stehen – ein Ansatz, der sicher ist Qubits haben die Aufgabe, Fehler in den Berechnungen anderer Qubits zu korrigieren.
Die hier von IBM geleistete Arbeit hatte bereits Auswirkungen auf die Roadmap des Unternehmens – ZNE verfügt über die attraktive Qualität, bessere Qubits aus denen zu machen, die wir bereits in einer Quantenverarbeitungseinheit (QPU) steuern können. Es ist fast so, als ob wir eine Megahertz-Steigerung hätten – mehr Leistung (weniger Lärm) ohne zusätzliche Logik. Wir können sicher sein, dass diese Lehren auf dem Weg zu einer „Million + Qubits“ berücksichtigt und wo immer möglich umgesetzt werden.
Es ist auch schwer zu ignorieren, wie dieses Werk zeigt, dass es keinen wirklichen Wettlauf zwischen Quanten- und Klassikspielen gibt: Die Zukunft ist tatsächlich Fusion, um ein wenig mit AMDs altem Motto zu spielen. Diese Fusion wird spezifische Rechenelemente enthalten, die spezifische Verarbeitungsanforderungen erfüllen. Jedes Problem, egal wie komplex, hat sein Werkzeug, von klassisch bis quantenmechanisch; und der menschliche Einfallsreichtum erfordert, dass wir alle unsere Fähigkeiten hervorragend einsetzen.
Das sprichwörtliche Seil zwischen Standard-Supercomputern und Quantencomputern ist nur begrenzt lang – aber IBM findet immer cleverere Wege, es zu verlängern. Dank dieser Forschung beginnen Quantencomputer bereits einen kleinen Schritt weiter zu blicken. Vielleicht wird Dr. Kandala früher als erwartet zu sehen bekommen, was er hofft: Der Spielplatz für den Quantennutzen ist jetzt früher als geplant geöffnet. Mal sehen, was Menschen darin tun können, oder?