Wie ist der aktuelle Stand beim Quantencomputing als Technologie, was kann sie potenziell leisten, was kann sie besser als herkömmliche Rechner?
Es ist wichtig klarzustellen, dass Quantenprozessoren noch keine praktisch relevante Aufgabe besser oder schneller lösen als herkömmliche Rechner. Der Abstand in puncto Rechenschritten - oder noch wichtiger in absoluter Zeit - ist nicht klein, sondern da sind sehr viele Größenordnungen dazwischen. Eine Ausnahme sind spezielle Prozesse, die nativ auf Quantenrechnern ablaufen, für die aber noch keine relevanten Anwendungen bekannt sind. Hier wurde in der Tat gezeigt, dass man das - zumindest ursprünglich - nur mit sehr großen klassischen Supercomputern reproduzieren kann – wenn überhaupt. Die Herausforderung, solche Prozesse, die auf Quantenrechnern nativ ablaufen, auch mit klassischer Hardware zu simulieren, hat zu enormen algorithmischen Fortschritten geführt und das dürfte auch eines der ersten nützliche Produkte aus dieser Forschungsrichtung sein: sogenannte quantum inspired algorithms, die bei konventionellen Rechnern zu genaueren oder schnelleren Ergebnissen führen können.
Das eigentliche Potential des Quantencomputing, für z.B. die Materialphysik und andere potentielle Anwendungen, wird sich voraussichtlich erst mit deutlich besserer Hardware einstellen, als sie jetzt verfügbar ist. Es war ein Durchbruch für das Feld, als gezeigt wurde, dass es auch in einem Quantencomputer prinzipiell möglich ist, Fehler zu korrigieren. Allerdings ist es so, dass die Qualität der Gatter und Quanten-Bits (Qubits) über einem bestimmten Grenzwert liegen müssen. Der Aufwand, die Kosten und die Komplexität steigen extrem an, wenn die Qualität der Hardware zu nahe an diesem Grenzwert liegt und es zeigt sich, dass es eine große technische Herausforderung ist, die Qualität hoch zu halten, wenn die Prozessoren größer werden. Erst diesen Monat ist es dem Team von Google erstmals gelungen zu zeigen, dass eine Fehlerkorrektur mit mehrerer physischen Qubits ein paar Prozentpunkte besser abschneidet als mit weniger Qubits. Das ist der erste Schritt von vielen zu einem einzelnen fehlerkorrigierten Qubit. In der Folge müssen dann noch fehlerkorrigierte Gatter zwischen solchen Qubits realisiert und das ganze skaliert werden, um relevante Probleme zu lösen.
Mit so einem fehlerkorrigierten Quantencomputer werden wir dann nicht unbedingt bekannte Probleme schneller lösen, sondern Problemstellungen angehen, die man mit einem klassischen Rechner prinzipiell gar nicht lösen kann. Nützliche Anwendungen für Quantencomputer, die nicht auf Fehlerkorrektur zurückgreifen – zum Beispiel wie sie jetzt schon zum Teil verfügbar sind - kann man nicht mit absoluter Sicherheit ausschließen, entbehren im Moment aber einer soliden Grundlage und basieren im Wesentlichen auf dem Prinzip Hoffnung.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Welche Vorteile bietet die Suche nach neuen Werkstoffen mithilfe des Quanten-Computing?
Es ist klar, dass es mithilfe eines Quantenrechners, der nativ Quanten-Vielteilchen-Probleme lösen kann, potentiell viel schneller gehen könnte, die Eigenschaften neuer Werkstoffe vorherzusagen. Im Moment werden diese Materialien mit viel Erfahrung, Intuition, oder auf gut Glück synthetisiert und getestet. Bei kleineren Systemen gibt es auch klassische Rechenmethoden, mit denen sich so ein Quantensimulator wird messen müssen. Diese klassischen Methoden verlassen sich auf Näherungen, die im Laufe der Zeit immer besser und genauer wurden, die aber z.B. im Bereich der stark korrelierten Elektronensysteme schnell ihre Gültigkeit verlieren. Solche Systeme sind demensprechend auch am vielversprechendsten, um mit Quantensimulation Vorschritte zu erzielen und neue Materialien zu entdecken oder existierende besser zu verstehen und weiterzuentwickeln.
Wie lassen sich umweltbeeinträchtigende Produkte bzw. Verfahren oder auch Ressourcenverschwendung von Vornherein ausschließen?
Im Kern ist das Rechnen mit Quanten reversibel und daher Ressourcen schonend. In der Praxis sind es die Kühlsysteme oder Laser, die einen Löwenanteil des Energieverbrauchs ausmachen. Aber selbst wenn man diese berücksichtigt, sind die paar kW Verbrauch recht gering im Vergleich zu einem Supercomputer-Cluster, den es zu ersetzen oder zu übertreffen gilt.
Etwas breiter betrachtet fließen natürlich bereits jetzt substantielle Ressourcen (Zeit, Geld, Energie) in die Quantencomputing-Forschung und Industrie, und es ist noch nicht absehbar ob dies zu nützlichen und nachhaltigen Produkten führen wird. Aber auch in dieser breiten Betrachtung ist eine positive Bilanz zu erwarten, sobald es gelingt, neue Materialien wie z.B. nutzbare Raumtemperatur-Supraleiter zu entwickelt.
Welche Art der Förderung bzw. regulatorische Unterstützung benötigt das Quantencomputing noch?
Nach anfänglicher Skepsis in der Industrie dominiert aus meiner Sicht jetzt eher die „fear of missing out“. Damit die Vision eines nützlichen Quantenrechners oder Simulators aber real werden kann, braucht es nicht nur die Skalierungsversuche in der Industrie, sondern vor allem ein klares Bekenntnis und Anreize zu mehr Qualität in der Hardware. Die Kontrolle über einzelne Quanten und ihre Interaktionen untereinander sowie mit der Umgebung müssen noch um Größenordnungen verbessert werden. Das erfordert Grundlagenforschung auf allen Ebenen: Konzepte, Materialien, Kontroll- und Messmethoden.
Der zweite, fast noch wichtigere, Aspekt ist, dass wir zumindest eine sogenannte killer-app identifizieren müssen und das wird am Besten im Zwischenspiel zwischen theoretischen Konzepten und praktischen Versuchen mit immer besser werdender Quantenhardware von statten gehen. Hier geht es darum, den enormen Abstand zum klassischen Computing mit einer Anwendung zu überbrücken, wo die Quantenphysik ihre speziellen Eigenschaften effektiv zum Einsatz bringen kann. Das sind typischerweise Probleme, die mit wenig Daten aber komplexen Interaktionen zu tun haben und wo wir einen idealerweise exponentiellen Vorteil sehen als Funktion der Größe des Problems – wie das z.B. bei der Primfaktorzerlegung der Fall ist.