Trends

Quantencomputing: Vom theoretischen Meilenstein in die Praxis 

Einen „Quantensprung“ nennt man seit Entdeckung der Quantenphysik jede Weiterentwicklung, die von besonderer Tragweite ist. In der Computertechnologie stellt die Erfindung des Quantencomputers wortwörtlich einen solchen dar. Aber was macht ihn so besonders? Welche Tragweite kommt dieser technologischen Neuheit zu? Um diese und andere Fragen zu klären, sprach //next mit Dr. Roman Horsky, Mathematiker beim Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in Kaiserslautern.

IBM Quantum System One Ehningen Setup | Copyright: IBM IBM Quantum System One Ehningen Setup | Copyright: IBM

Für Roman Horsky stellt der Quantencomputer eine Schlüsseltechnologie dar, die in den kommenden Jahren für viele Forschungsfragen von Bedeutung sein wird. Er selbst befasst sich seit 2019 damit. Seit 2020 hat das Thema aus seiner Sicht deutlich an Fahrt aufgenommen: „Man kann merken, dass Bewegung in das bislang eher theoretische Konzept von Quantencomputing kommt. Für uns bei Fraunhofer ist die Technologie von großer strategischer Bedeutung. Im Juni wurde der erste IBM-Quantenrechner auf deutschem Boden eingeweiht; er wird von Fraunhofer unter hiesigem Datenschutzrecht betrieben. Damit sind wir in der Lage, eine Reihe von Forschungsprojekten aus verschiedenen Fachbereichen umzusetzen.“

Eine fundamental andere Technologie

Möchte man die Arbeitsweise eines Quantencomputers beschreiben, gerät man schnell in die komplizierte Terminologie der höheren Physik: Von zweidimensionalen komplexen Räumen ist da die Rede, von Überlagerungszuständen und Interferenzen. 

Dr. Roman Horsky versucht, eine einfache Erklärung zu geben: „Quantencomputer sind – wie klassische Computer auch – zunächst einmal Maschinen, die Rechnungen durchführen. Anders als beim klassischen Rechner sind die Minimalspeichereinheiten allerdings so klein, dass für sie die Gesetze der Quantenmechanik gelten. Dadurch ergeben sich fundamentale Unterschiede. Die Basiseinheit eines klassischen Computers, das Bit, kann genau zwei Zustände annehmen: Es ist geladen oder nicht geladen. Beim Qubit, der Basiseinheit eines Quantencomputers, verhält es sich weniger intuitiv. Auch hier gibt es die Möglichkeit einer Reduktion auf zwei Basiszustände, allerdings stellen Qubits als Speichereinheit eine Überlagerung der Basiszustände dar und sind miteinander verschränkt. Dadurch werden parallele Rechnungen möglich. Der klassische Computer dagegen muss seine Rechnungen nacheinander ausführen.“

Die Anzahl und die Verbindung der Qubits untereinander sei entscheidend für die Leistungsfähigkeit eines Quantencomputers, führt der Finanzmathematiker aus. Mit der Anzahl der Quibits steige seine Rechenleistung exponentiell. Dies wiederum sei aber derzeit auch die Herausforderung: Je mehr Qubits sich in einem Quantencomputer befänden, umso instabiler werde das System, so Horsky. Und er führt aus: „Derzeit sind circa 50 bis 70 Qubits in einem universellen Quantencomputer realisiert. Damit ergibt sich noch keine Rechenleistung, die weit über die von klassischen Computern hinausgeht. Erhöht man die Zahl der Qubits weiter, wird das System zum derzeitigen Stand schnell instabil. Haltbarkeit bei den Rechenergebnissen und Prozessen zu erzielen, stellt beim Quantencomputer die größte Herausforderung dar. Die gesamte Technologie ist außerordentlich empfindlich gegenüber jeder Art von äußeren Einflüssen. Das macht die praktische Umsetzung so schwierig.“

Der Quantencomputer gleicht einer Labor-Einheit

Die „Rechenmaschine“, die im baden-württembergischen Ehningen aufgebaut wurde, ist ein Gemeinschaftsprojekt vieler Beteiligter. „Wir stellen im Fraunhofer-Netzwerk gemeinsam mit IBM eine Technologie bereit, die auch über unsere Institute hinaus von Industrie, Forschung und Politik genutzt werden kann“, erläutert Horsky das Prinzip. In einem Ticketmodell können sich externe Interessenten auf den Quantencomputer in Ehningen „einbuchen“ – derzeit für einen niedrigen fünfstelligen Monatsbetrag.

Noch sei es nicht so, dass ein Quantencomputer in einem Routinebetrieb laufen könne, führt Dr. Roman Horsky weiter aus. „Man muss sich das eher wie eine Labor-Einheit vorstellen. Das Ganze hat einen stark experimentellen Charakter, und vieles funktioniert noch nicht reibungslos.“ Auch seien die Kapazitäten dieser Rechner noch zu begrenzt, um komplexe Modelle abbilden zu können. „Dennoch sind eine Reihe sehr spannender Forschungsfragen abbildbar, und wir starten gerade mit verschiedenen vielversprechenden Forschungsprojekten sowohl aus dem Energie- als auch aus dem Finanzbereich“, freut sich der Mitarbeiter des Fraunhofer ITWM.

 

Die Fragestellungen aus dem Finanz- und Versicherungsumfeld treiben Roman Horsky besonders um. Seit inzwischen zehn Jahren ist der Diplom-Physiker, der seine Promotion in Finanzmathematik absolviert hat, in der Anwendungsforschung bei Fraunhofer ITWM tätig. Gemeinsam mit insgesamt etwa 500 Kollegen – davon ein großer Teil Mathematiker und Mathematikerinnen, aber auch Wissenschaftler vieler anderer Disziplinen – arbeitet er an Projekten aus dem Feld der Techno- und Wirtschaftsmathematik. „Auch wenn es theoretisch klingt, hat unsere Arbeit immer einen Anwendungsbezug. Oft arbeiten wir mit Partnern in der Wirtschaft und Industrie zusammen.“ Er selbst ist in der Abteilung Finanz- und Versicherungsmathematik angesiedelt und kümmert sich unter anderem um die möglichen Einsatzfelder des Quantencomputers in diesem Gebiet. Mit einem „eigenen“ Quantencomputer auf deutschem Boden ist es möglich, die Potenziale der Technologie genauer auszuloten und mit klassischen Methoden zu vergleichen. „Das Spannende dabei ist, dass ich meine Kompetenzen aus dem Bereich Physik und Finanzmathematik bei der Quanten-Computertechnologie miteinander verbinden kann. Das fasziniert mich sehr“, erklärt Horsky. Der Quantencomputer verlange einen anderen Zugang für mathematische Probleme. „Die Maschine hat spezifische Charakteristika und Eigenschaften, die eine andere Form der idealen Nutzung mit sich bringen. Entsprechend benötigt man andere Formulierungen von Problemen“, erläutert Horsky. 

Viele Fragen aus dem Energiesektor, aber auch Finanz- und Versicherungsthemen

Tatsächlich definiere die Maschine, also die zugrundliegende Technologie, die Art der Fragestellung. Horskys Abteilung im Fraunhofer ITWM beschäftigt sich derzeit mit drei konkreten Forschungsprojekten: Für den Energiesektor geht es um die Optimierung des Einsatzes von Kraftwerken, im Finanzbereich um die Simulation von Kapitalmarkt-Modellen und auf dem Versicherungssektor soll der Quantencomputer helfen, das Management von Anlagevermögen unter Einbeziehung stochastischer Faktoren zu optimieren.

In diesen und ähnlichen Forschungsprojekten wird sich zeigen, wie leistungsfähig und stabil der Quantencomputer in Anwendungsfragen arbeitet und welche langfristigen Perspektiven sich für die Technologie daraus ableiten lassen.

Kein Serienmodell in naher Zukunft

Doch egal, wie erfolgreich der Einsatz des Quantencomputers im Fraunhofer-Netzwerk sein wird: Vom Serienmodell sind diese Maschinen noch weit entfernt. Dr. Roman Horsky stellt fest: „Es ist derzeit ziemlich undenkbar, dass irgendwann jeder Haushalt einen Quantencomputer besitzt. Diese Art der Technologie wird immer sehr spezifisch bleiben. Vielleicht wird es einmal so sein, wie zur Hochzeit der Großrechner, dass große Industrie-Unternehmen sich quantenbasierte Rechenanlagen leisten werden.“ Zum jetzigen Zeitpunkt sei aber auch dies noch eine reine Zukunftsvision. Die hohe Anfälligkeit der Qubits verlange eine extreme Abschirmung der Systeme. Erst wenn dies gelinge und eine Skalierbarkeit gegeben sei, könne man über eine alltagstaugliche Nutzung nachdenken, so Dr. Horsky. Auf der Internetseite der Fraunhofer Gesellschaft steht dazu zu lesen: „Noch gibt es erhebliche Hürden für den Betrieb eines Quantencomputers. Oberste Prämisse ist es, die fragilen Quanten gegen sämtliche Umwelteinflüsse abzuschirmen. Sie benötigen eine Temperatur niedriger als im All, müssen fast auf den absoluten Nullpunkt von etwa minus 273 Grad herabgekühlt werden, arbeiten nur unter Vakuumbedingungen, müssen elektromagnetisch abgeschirmt sein – nur so bleibt die Chance auf brauchbare Berechnungen. Fehler können sowohl durch externe Einflüsse wie Erschütterungen auftreten als auch bei der Manipulation und dem Auslesen von Qubits mit Hilfe von elektromagnetischen Wellen.“

Roman Horsky geht nochmal ins Detail: „Es gibt verschiedene technologische Ansätze für den Quantencomputer. Je nach System erhöht sich die Stabilität zwar, aber auf Kosten der Einsatzbreite.“ Unterschieden werde zwischen gatterbasierten Quantencomputern und den sogenannten Quanten-Annealern. Bei Letzteren sind die Qubits in einer vorgegebenen Struktur angeordnet, was das System stabiler macht. Allerdings erlaubt diese Struktur nur spezifische Problemstellungen und Berechnungen. Sie ist nicht frei nutzbar.

Technologie wächst aus den Kinderschuhen

Für Dr. Roman Horsky ist der Quantencomputer ein Zukunftsthema, das allmählich aus den Kinderschuhen herauswachse: „Es herrscht Aufbruchsstimmung“, meint der Wissenschaftler, auch wenn es sich nach wie vor um ein hochkomplexes Thema handle. Der Quantencomputer sei nicht einfach ein Arbeitsinstrument, der Umgang mit dieser Technologie sei vielmehr ein interdisziplinäres Thema: „Man benötigt Know-how in Mathematik, Physik und Ingenieurswissenschaften.“   

Roman Horsky jedenfalls freut sich auf die künftige Beschäftigung mit der komplizierten und sensiblen Maschine. „Und ich freue mich, den Rechner bald einmal aus nächster Nähe in Ehningen sehen zu können. Bisher kenne auch ich Quantencomputer nur aus den Abbildungen in Büchern.“

Das Interview führte Sabine Haas.