Wie verändert Quantencomputing das Banking?

27 Dezember 2023
Datenbank

Joachim Wuermeling

Letztes Jahr hatte ich bei der Handelsblatt BankenTech von der technischen Plattform der Deutschen Bundesbank berichtet. Heute, genau 364 Tage später, geht es bei mir aber nicht um Klassiker wie ChatGPT oder KI – heute machen wir einen kleinen Quantensprung weg von dem Tagesgeschäft einer Zentralbank. Natürlich ist Generative KI derzeit unangefochten einer der Spitzen der Innovation. Bei Quantencomputing wissen wir noch nicht ganz genau, ob wir vor dem Mount Everest, dem Matterhorn oder dem kleinen Feldberg in der Nähe von Frankfurt stehen. Allerdings deutet vieles darauf hin, dass das, was sich unter der Wolkendecke befindet, ein echter Gigant sein könnte. Wenn wir gedanklich mal bei dem Matterhorn bleiben – Woran denken Sie, wenn Sie an die Schweiz denken? Ich denke an die Gemeinde Rüschlikon und Quantencomputer. Rüschlikon – was macht diese Gemeinde in der Schweiz so besonders?

Im Jahr 2017 durfte ich bei einem Besuch in der dortigen Forschungseinrichtung von IBM einen der ersten Prototypen eines Quantencomputers sehen. Und ich muss Ihnen ehrlich sagen: Ich war beeindruckt von der physischen Installation. Die Maschine wurde direkt auf einem Felsen aufgesetzt, um jegliche Erschütterung zu vermeiden.

Ich weiß nicht, ob das heute auch noch nötig ist, aber seit 2017 hat sich doch einiges getan. Sechs Jahre später müssen wir nicht mehr in die Schweiz fahren, sondern können Quantencomputer auch in Deutschland in mehreren Forschungszentren besichtigen und testen. In den nächsten 20 Minuten will ich Ihnen Impulse und eine Perspektive geben, wie wir als Deutsche Bundesbank auf Quantentechnologien blicken.

Einordnung der Technologie

Sie werden sich sicher fragen: Woher kommt der Impuls, dass wir uns als Zentralbank mit Quantencomputing beschäftigten? Wir haben bei uns in der Bank ein sehr engagiertes Trendmanagement.
Tatsächlich haben wir Quantentechnologien seit der Einrichtung unseres Trendradars im Jahr 2019 auf dem Schirm.

Der Trend ist seitdem evolutionär durch unseren Trendmanagementprozess gewandert. Anfangs haben wir Quantentechnologien nur beobachtet, 2021 sind wir in eine systematische Bewertung des Trends eingestiegen. Seit 2022 arbeiten wir aktiv an den ersten Pilotprojekten, und Quantentechnologien werden bei uns in der Deutschen Bundesbank von der IT als Technology Push getrieben, das bedeutet, dass wir aktiv nach Einsatzmöglichkeiten suchen. Zum Einstieg würde ich Ihnen gerne eine kurze Einordnung geben, wie wir als Deutsche Bundesbank Quantentechnologien verstehen und wahrnehmen.

Wissenschaftlicher Kontext

Quantencomputing ist kein neuer Begriff in Wissenschaft und Informatik. Quantenrechner wurden schon vor Jahrzehnten theoretisch konzipiert. Auch die Algorithmen für Quantenrechner wurden schon vor Jahrzehnten entwickelt. Die zwei prominentesten Quantenalgorithmen dürften Shor und Grover sein. Der Shor-Algorithmus – ein Verfahren für die Primfaktorzerlegung einer Zahl, wurde 1994 von Peter Shor entwickelt und ist noch nicht allgemein auf aktueller Quantencomputer-Hardware implementierbar. Im selben Zeitraum, um genau zu sein 1996, wurde von Lov Grover der Grover-Algorithmus entwickelt. Dieser könnte in Zukunft bei der Suche in unsortierten Datenbanken nützlich sein.

Seit den ersten theoretischen Grundlagen hat Quantencomputing, wie ich finde, riesige Fortschritte gemacht. Bereits 2011 hat D-Wave den nach eigenen Angaben ersten kommerziell verfügbaren Quantencomputer vorgestellt. Und wenn man heute auf den aktuellen Entwicklungsstand blickt, bieten bereits verschiedene Anbieter ihre Hardware über Cloud Services an.

Vergleich zu KI

Tatsächlich erinnert mich die Entwicklung bei Quantencomputing an KI bzw. Machine Learning. Das Perzeptron, ein grundlegender Baustein für neuronale Netzwerke, wurde schon 1943 konzipiert. Nun hat es 80 Jahre gedauert, bis KI-Tools wie ChatGPT in unserem Alltag ankommen konnten. Warum hat es so lange gedauert? Um KI überhaupt produktiv zu nutzen, brauchte es leistungsstarke Coprozessoren, wie GPUs. Das heißt, das Entwicklungstempo wurde maßgeblich durch die verfügbare Hardware bestimmt.

Man kann erwarten, dass Quantencomputing einen ähnlichen Entwicklungspfad nimmt. Aktuell befinden wir uns bei Quantencomputing in der Noisy Intermediate Scale Quantum, kurz NISQ Ära. Bitte nicht mit der NIST, dem National Institute of Standards and Technology verwechseln. Das heißt, wir sind an einem Punkt, an dem die aktuell realisierbare Quantenhardware das tatsächlich nutzbare Potenzial der Technologie limitiert. Viele Expertenmeinungen deuten darauf hin, dass wir bereits 2030 die NISQ Ära verlassen werden und über leistungsstarke, fehlerarme Quantenrechner verfügen könnten.

Vergleich zu klassischem Computing

Klassische Rechenarchitekturen haben sich seit dem Umstieg auf transistor-basierte Technik stark evolutionär entwickelt. Die ersten kommerziell verfügbaren Computer mit Transistortechnik wurden in den 1950er-Jahren vorgestellt. Seitdem setzen wir bei klassischem Computing auf Halbleitertechnik. Bei Quantencomputern gibt es diesbezüglich noch keine präferierten Technologien. Ein anderer, wesentlicher Unterschied ist folgender: In der klassischen Informatik arbeiten wir mit Bits. Ein Bit ist die kleinste Informationseinheit in der digitalen Datenverarbeitung. In der Quanteninformatik arbeiten wir mit Qbits, die sich, stark vereinfacht gesagt, ganz wesentlich von klassischen Bits unterscheiden – das zeigt auch schon die Art und Weise, wie wir diese Qbits konstruieren können.

Wir können Qbits beispielsweise mit Supraleitern, kalten Atomen, Ionenfallen oder über Diamanten implementieren. Die Hardwareumsetzungen haben derzeit unterschiedliche Reifegrade. Gerade weil es noch keine einheitliche Implementierung gibt, haben wir auch noch kein standardisiertes Rechenmodell. Auch ist es derzeit noch schwierig, die Leistungsfähigkeit der unterschiedlichen Architekturen zu bewerten. Qbit-Zahlen sind kein alleinstehendes Leistungsmerkmal und können nur bedingt als Kennzahl für Leistungsvergleiche verwendet werden.

Deterministisch vs. Probabilistisch

Quantencomputer arbeiten auch im Kern anders als klassische Computer. Klassische Rechenarchitekturen sind deterministisch: Das heißt stark vereinfacht, dass die selbe Eingabe eines Programms immer zur selben Ausgabe führt. Quantencomputer arbeiten dagegen probabilistisch. Probabilistisch heißt in der Praxis: Je häufiger ich ein Programm auf meinem Quantencomputer ausführe, desto höher ist die Wahrscheinlichkeit, das richtige Ergebnis zu bekommen.

Zwischenfazit

Sie merken, die Funktionsweise von Quantencomputern ist gänzlich anders als die der Chips, die wir tagtäglich in unseren Smartphones, Notebooks und Servern nutzen. Um ein kurzes Zwischenfazit zu ziehen: Mit klassischen, siliziumbasierten Rechensystemen sind wir vertraut und diese entwickeln sich evolutionär. Quantencomputing-Hardware entwickelt sich aktuell revolutionär – und das macht Vorhersagen zur Time-to-Market schwierig. Was ich an dieser Stelle mitgeben möchte: Aus unserer Sicht gibt es keine „entweder / oder“ Diskussion: Quantencomputing ist eine komplementäre Technologie zu klassischen Rechnern. Aus unserer Sicht werden Quantencomputer klassische Rechner nicht ersetzen, sondern bei speziellen Aufgaben unterstützen.

Wenn sie leistungsstark werden, dann können Probleme gelöst werden, die auf klassischer Architektur als zeitlich unlösbar gelten. Dieser Entwicklungsschritt, also das hybride Quantencomputing, wird revolutionäre Auswirkungen haben und unglaubliches Potenzial für Innovation bieten.

Globaler Kontext

Dieses Potenzial haben auch die Regierungen vieler Länder erkannt, und die öffentliche Hand fördert aktiv Quantentechnologien. Die Bundesregierung hat im April 2023 das Handlungskonzept Quantentechnologien veröffentlicht:

„Bis 2026 wird die Entwicklung eines leistungsfähigen universellen Quantenrechners angestrebt. Ziel ist es, zu den Technologieführern USA, China und Großbritannien aufzuschließen“. „Durch zielgerichtete Maßnahmen“ sollen „Quantentechnologien für Gesellschaft und Wirtschaft nutzbar gemacht und die technologische Souveränität in diesem Feld gesichert“werden.

Die Bundesregierung fördert Quantentechnologien aktiv mit drei Milliarden Euro. Aktuell gibt es ein großes Momentum in der Industrie, Quantentechnologien zu kommerzialisieren. Quantencomputing Usecases werden bereits in der Industrie produktiv umgesetzt. Ein gutes Beispiel hier sind Quantenannealer, die für Optimierungsprobleme eingesetzt werden. Dabei ist Quantencomputing über Cloud Services der aktuell lohnenswerteste Ansatz, um erste Proof-of-Concepts umzusetzen. Auch die Bundesregierung ist in ihrer Vision für 2036 der Meinung, dass „Quantenannealer eine signifikante Rolle in mehreren Branchen, wie beispielsweise der Finanzbranche (…) spielen werden“.

Bevor jedoch der großflächige Einsatz von Quantencomputing möglich ist, sehe ich folgende Herausforderungen:

Wir haben aktuell wie in allen disruptiven Domänen mit einem Fachkräftemangel im Quantencomputing zu kämpfen. Viele Fragen auf der Hardware-Ebene sind noch offen – vom Standort bis zum Betrieb der Rechner. Diese Herausforderungen betreffen alle Industriezweige, die Quantencomputing nutzen wollen, und sind deshalb auf die Finanzbranche übertragbar.

Risiken der Technologie

Aber auch die Risiken, die mit Quantencomputing einhergehen, übertragen sich unausweichlich auf die Finanzbranche. Sie können sich vermutlich denken, worauf ich hinaus möchte: Der Shor-Algorithmus, den ich eingangs erwähnt hatte, ist deshalb so prominent, weil er das Krypto-System RSA brechen kann. Dieser Algorithmus ist heute aber noch nicht auf Quantencomputern einsetzbar. Das heißt, derzeit existiert kein kryptographisch-relevanter Quantencomputer.

Experten sehen den Tipping Point um das Jahr 2030. Was heißt das konkret? Man arbeitet mit der Annahme, dass um das Jahr 2030 ein kryptographisch-relevanter Quantencomputer existieren wird. Damit sind ab diesem Zeitpunkt Verschlüsselungs- und Signaturverfahren, wie RSA, nicht mehr als sicher einzustufen. In der Finanzbranche setzen wir an unzähligen Stellen auf genau diese Verfahren. Es ist jetzt notwendig, proaktiv unsere Systeme zu schützen, bevor Quantencomputer das Niveau erreicht haben. Die Kritikalität der Migration zu quantensicheren Verschlüsselungsverfahren spiegelt sich deshalb in den Quantencomputingstrategien von Regierungen wieder.

Zum einen haben Länder und Behörden Standardisierungsvorhaben initiiert, wie die 2017 gestartete Kampagne der NIST. Aber auch auf sehr hoher politischen Ebene werden Entscheidungen getroffen. Im November 2022 veröffentlichte die USA ein Memorandum für den Übergang zu quantensicherer Kryptographie des öffentlichen Sektors, dessen Maßnahmen bis 2035 abgeschlossen sein müssen. Auch die Bundesregierung hat bis 2026 „das Einleiten der Migration zu Post-Quanten-Kryptografie in (…) sicherheitskritischen Bereichen“ als Meilenstein definiert. Quantensichere Kryptographie und die damit engverbundene Kryptoagilität sind Themen, die wir jetzt angehen müssen. Wir werden zunehmend digitaler, und auch Finanzdienstleistungen wandern ins Netz.

Um das Vertrauen in unser Finanzsystem gewährleisen zu können, sind alle Akteure aufgerufen, die Auswirkungen von Quantencomputern zu erkennen, zu verstehen und sich quantensicher zu machen. Alle Stakeholder müssen sich auf die Vertraulichkeit ihrer Daten verlassen können.

Chancen der Technologie

Ich würde gerne wieder auf die Chancen der Technologie zurückkommen. Der Finanzmarkt ist ein zahlengetriebener Wirtschaftszweig; und wenn man einschlägige Studien liest, auch einer der Wirtschaftszweige, die auf lange Frist direkt von Quantenrechnern profitieren könnten. Auch wir als Deutsche Bundesbank teilen diese Einschätzung. In der Finanzbranche wird bereits der Einsatz von Quantenhardware und -algorithmen bei Portfoliooptimierungen getestet. Die Hardware der NISQ-Ära ist allerdings noch nicht geeignet, um großflächig produktive Use-Cases im Finanzwesen umzusetzen.

Ich habe mir aber sagen lassen: Das hält uns nicht auf, weil wir Use-Cases im kleinen Rahmen bereits auf Quanten-Simulatoren vorbereiten können. Was man allerdings bedenken muss: Quantencomputing ist keine Plug-and-Play Lösung. Die Technologie ist ein Expertenthema und es gibt kein One-Size-Fits-All. Die unterschiedlichen Implementierungen von Quantencomputern erzeugen ein zusätzliches Komplexitätslevel. Daher sind Co-Creation und Zusammenarbeit der Fachexperten essentielle Erfolgsfaktoren bei Quantencomputing.

Quantentechnologien bei der Deutschen Bundesbank

Jetzt sind Sie bestimmt interessiert, was wir als Deutsche Bundesbank im Bereich Quantentechnologien machen. Als Zentralbank sind wir Teil des Finanzwesens. Es ist daher wichtig, dass wir durch eine innovative Aufstellung der Deutschen Bundesbank quantenready werden.

Potenzial für die Technologie identifizieren wir für uns in den in den folgenden Bereichen: Verbesserung der eigenen Fähigkeiten; Überwachung des Finanzsystems; Steigerung der Cyber-Security.

Wie kommen wir zu dieser Einschätzung? 2021 haben wir uns dazu entschlossen, eine Studie zum Thema Quantencomputing zu machen. Ziel dieser Studie war es, ein Verständnis für die Technologie zu bekommen, mit ihr vertraut zu werden und zu verstehen, wie wir in das Thema einsteigen können. Mit Abschluss der Studie im Juni 2022 haben wir über 30, für uns relevante Use-Cases identifiziert, und eine Blaupause für den Kompetenzaufbau definiert. 2022 sind wir auch mit unserem ersten Proof-of-Concept gestartet.

BISIH Project Leap

In Kooperation mit dem Innovation Hub der Bank für Internationalen Zahlungsausgleich und der Banque de France haben wir bei Project Leap ein Proof-of-Concept zum Thema Post-Quanten-Kryptographie und Kryptoagilität entwickelt. Project Leap ist ein technisches Innovationsprojekt. Wir haben nicht nur einen Bericht geschrieben, sondern aktiv mit quantensicheren Verschlüsselungsalgorithmen, Signaturverfahren und Cloud-Infrastruktur experimentiert.

Kompetenzaufbau

2023 haben wir unser eigenes Quantencomputingteam gegründet. Dieses Team befasst sich mit der Umsetzung von Use-Cases und wird gemeinsam mit Technologiepartnern an Anwendungsfällen zu Quantentechnologien arbeiten. Neben der Anwendung von Quantencomputing arbeiten wir auch aktiv an quantenverschlüsselten, abhörsicheren Kommunikationsteststrecken. Ende November 2023 haben wir erste Tests im Bereich Quantum-Key-Distribution mit dedizierter Hardware in unserer eigenen IT-Infrastruktur abgeschlossen.

Fazit

Vor etwas mehr als einem Jahr haben wir uns in der Deutschen Bundesbank noch die Fragen gestellt, ob und wann Quantencomputing das Bankwesen verändert. Heute stellen wir uns die Frage, wie verändert Quantencomputing das Bankwesen? Der Titel dieser Rede impliziert bereits eine Aussage: Wir gehen als Deutsche Bundesbank davon aus, dass Quantencomputing die Finanzbranche verändern wird – und das nachhaltig. Natürlich ist eine neue Technologie immer mit Chancen und Risiken verbunden. Das größte Risiko sehen wir aber aktuell darin, sich nicht mit Quantencomputing zu beschäftigen.

Wir müssen vor die Welle kommen. Als Bundesbank definieren wir Quantencomputing als disruptive Schlüsseltechnologie. Deshalb müssen wir verstehen, wie sich Quantencomputing auf das Finanzsystem und unsere Aufgaben als Zentralbank auswirken wird. Um dieses Verständnis zu bekommen, beschäftigen wir uns aktiv mit der Technologie und sehen uns als Teil der Community – nicht nur als Beobachterin. Wir wollen proaktiv handeln um bei der Gestaltung der Technologie aktiv mitzuwirken.

Obwohl die Vision von universellen, fehlerkorrigierten Quantencomputern noch nicht Realität geworden ist, zeigen die Impulse und das Umdenken, das bereits eingesetzt hat, Stichwort „quantensichere Kryptographie“, dass Quantencomputing schon jetzt im Bankwesen angekommen ist.

Der Autor, Prof. Dr. Joachim Wuermeling , ist Mitglied des Vorstands der Deutschen Bundesbank.



Leave a Reply

Your email address will not be published. Required fields are marked *