15 Minuten Lesezeit 4 Februar 2022
Eine Frau und ein Mann stehen im Serverraum

„Wo PCs Jahre brauchen, ist ein Quantencomputer in Sekunden fertig“

Quantum Computing wird unsere Gesellschaft, aber auch Finanzinstitute und die Wirtschaft im Allgemeinen stark verändern.

Überblick
  • Quantencomputer sind eine neue Generation von Computern, die sich noch in der Entwicklungsphase befinden.
  • Die Quantentechnologie hat enormes Potenzial und wird die Welt, wie wir sie kennen, verändern.
  • Immer mehr Unternehmen erkennen die Vorteile des Quantencomputers und rüsten sich mit den nötigen Skills aus, um in Zukunft entscheidende Vorteile zu haben.

Quantum Computing zählt zu einem der aktuellen Megatrends und wird nachhaltigen Einfluss auf Gesellschaft, Finanzinstitute und die gesamte Wirtschaft haben. Woher kommt dieser Trend und was bedeutet er für uns? Wie können sich Banken und institutionelle Finanzdienstleister wie Versicherungen oder Asset Manager auf diese Entwicklung vorbereiten? Ist Quantum Computing noch immer eine Zukunftsvision oder bereits in der Realität angekommen? Dr. Jan Rosam, Partner im Technology Consulting bei EY, und Carina Kießling, Senior Consultant Technology Consulting bei EY, haben zusammen mit Niklas Hegemann, Co-Founder und Managing Director bei JoS QUANTUM, und Stefan Kister, Senior Client Technical Architect und Quantum Ambassador bei IBM, im Rahmen der Podcast-Serie „EY FinTech & bEYond“ einen Blick hinter die disruptive Quantentechnologien mit ihren unglaublich vielseitigen Facetten und insbesondere auf die Welt der Quanten im Finanzdienstleistungssektor geworfen.

  • Zur Person: Dr. Stefan Kister

    Dr. Stefan Kister arbeitet seit vielen Jahren als Senior Client Technical Architect im technischen Vertrieb bei IBM Deutschland. Schwerpunkt bildet dabei die Beratung von Kunden aus dem Finanzsektor zu Themen wie Hybrid Cloud, Data & AI und Quanten Computing. Kister ist Ingenieur und hat einen Doktortitel in Philosophie (Ph. D.) mit Schwerpunkt anorganischer Chemie von der Universität Dortmund.

  • Zur Person: Niklas Hegemann

    Niklas Hegemann ist Geschäftsführer von JoS QUANTUM. Davor war er als Unternehmensberater in verschiedenen betriebswirtschaftlichen und technischen Bereichen mit den Schwerpunkten Softwareintegration und Finanzdienstleistungen tätig. Er war verantwortlich für mehrere große Projekte, hauptsächlich im Bereich Handelssysteme und Risikomanagement. Er arbeitete am deutschen Elektronen-Synchrotron DESY, wo er Monte-Carlo-Simulationsmethoden zur Validierung von Hochenergieexperimenten einsetzte. Seinen Abschluss (Diplom-Physiker) mit Nebenfach Wirtschaftswissenschaften erhielt er 2011 an der Universität Hamburg.

Carina Kießling: Stefan, Du bist als Quantum Ambassador bei IBM tätig und Deine Aufgabe besteht darin, das Thema Quantum Computing Euren Kunden näher zu bringen. Welche Initiativen gibt es rund um Quantum bei IBM?

Dr. Stefan Kister: Bei IBM haben wir das Thema Quantum Computing noch im Research-Umfeld aufgehängt. Das heißt, dass ich als Quantum Ambassador die Rolle der Schnittstelle zwischen den Kunden und IBM Research übernehme. Wir geben Einstiegs-Workshops, wir erklären die Technologie, welche Programme IBM zur Verfügung hat und wie diese in der eigenen Industrie beziehungsweise im eigenen Umfeld genutzt werden können. Zudem führen wir auch einfache Programmier-Workshops mit den Kunden durch und bringen ihnen die Quantencomputer-Technologie so im Industriekontext näher.

Als IBM 2016 verkündet hat, einen Quantencomputer einzuführen und diesen in der Cloud zur Verfügung zu stellen, war ich sehr überrascht und begeistert. IBM ist sehr offen an diese Technologie herangegangen und wir haben einen Quantencomputer in der Cloud – quasi für jedermann – verfügbar gemacht. In dem Development Kit, das IBM entwickelt hat, nutzen wir Open Source und damit ist es für jeden zugänglich. Wir haben selbstverständlich auch exklusive Angebote für Kunden, die wir in einer Art direkter Partnerschaft zur gemeinsamen Forschung am Thema Quantum Computing im Industrieumfeld des Kunden anbieten, und wir haben Hub-Strukturen, wie wir sie beispielsweise gerade in Deutschland mit der Fraunhofer-Gesellschaft aufbauen. In dieser Struktur ist IBM nur ein Partner des Hub-Providers, in diesem Falle der Fraunhofer-Gesellschaft, und Fraunhofer stellt selbst das Netzwerk für ihren Quantencomputer zusammen. Als dritte Säule haben wir ein Programm für Ökosysteme, in dem Startups, Independent Software Vendors (ISVs), Computer-Security-Institute (CSIs) oder auch Universitäten zusammenkommen, um gemeinsam am Thema Quantum Computing zu forschen.

Jan Rosam: Vielen Dank für die Erläuterung. Niklas, JoS Quantum hat sich zum Ziel gesetzt, Lösungen und Herausforderungen von Finanzinstituten von heute für das Quantenumfeld zu erforschen und Kunden auf die Quantenära vorzubereiten. Was waren Deine Beweggründe für die Gründung von JoS Quantum?

Niklas Hegemann: Mit dem Thema Quantum Computing beschäftige ich mich, seit ich Marcus, meinen jetzigen Geschäftsführerkollegen, bei unserer damaligen Firma kennen gelernt habe. Marcus hat JoS Quantum im April 2018 gegründet, nachdem er mögliche Einsatzgebiete in der Finanzwelt identifiziert hat. 2018 bin ich zu JoS Quantum dazu gestoßen.

Die Idee von JoS Quantum ist, die neuen Möglichkeiten aus der Quantenphysik in der Finanzwelt anzuwenden, um eine komplett neue Art von Modellen zu entwickeln. Wir entwickeln bei JoS Quantum Quantenalgorithmen für Anwendungsfälle aus dem Finanz- und Energiesektor und begleiten Kunden dabei, die Technologie für relevante Problemstellungen anzuwenden und Prototypen zu bauen. Wir nennen das „Research as a Service“. Außerdem bauen wir eine Software, mit der sich Risiken und Finanzprodukte modellieren lassen und in der Zukunft effizient auf Quantencomputern berechnet werden können.

Kießling: Das klingt sehr spannend, Niklas. Bevor wir uns tiefer mit der Quantentechnologie sowie den -anwendungsfällen und -algorithmen beschäftigen, die du eben bereits angesprochen hast: Kannst Du uns kurz erklären, wieso es Quantum Computing überhaupt gibt?

Hegemann: Das ist eine interessante Frage. Unsere herkömmlichen Computer beruhen auf den rein binären Zuständen 0 und 1. In der Natur konnte man bereits zu Beginn des 19. Jahrhunderts sehen, dass die Bausteine der Natur auf der Quantenmechanik beruhen. Schon der bekannte Physiker Richard Feynman hat erkannt, dass man diese nutzen muss, um Probleme in der Natur effizient zu lösen. Die Idee war eine der Grundlagen dafür, die quantenmechanischen Eigenschaften zu nutzen, um Informationen effizienter zu verarbeiten als mit klassischen Computern. Heute sehen wir eine ganze Reihe von Anwendungen, für die klassische Computer sehr lange rechnen müssten – teilweise wären Wochen, Jahre oder Jahrzehnte an Rechenzeit notwendig, um Lösungen für bestimmte Probleme zu finden. Aktuell werden zum Beispiel starke Vereinfachungen angenommen, um die Rechenzeit herkömmlicher Computer zu reduzieren.

Wenn ein Prozess auf einem klassischen Computer Jahre an Rechenzeit benötigen würde, könnte ein Quantencomputer dieses Problem in Sekunden bis Minuten lösen.
Niklas Hegemann
Co-Founder und Managing Director bei JoS QUANTUM

Quantencomputer bieten die Möglichkeit, die Rechenzeit solch großer Probleme drastisch zu reduzieren. Hier wird oft von quadratischen bis exponentiellen Speed-Ups gesprochen. Um sich die Dimensionen vorzustellen: Wenn ein Prozess auf einem klassischen Computer Jahre an Rechenzeit benötigen würde, könnte ein Quantencomputer dieses Problem in Sekunden bis Minuten lösen. Dieses Potenzial hat die Idee des Quantum Computing bis zum heutigen Tag getrieben. Das Quantum-Supremacy-Experiment (dt. Quantenüberlegenheit) von Google hat 2019 beispielsweise gezeigt, dass Quantencomputer prinzipiell mathematische Probleme schneller als klassische Computer lösen können. Heute stehen wir meiner Ansicht nach kurz davor, dass Quantencomputer auch relevante Probleme aus der echten Welt lösen können. Dazu müssen die aktuellen Maschinen aber noch ein bisschen besser werden.

Rosam: Ich denke, das ist ein guter Einstieg. Stefan, kannst Du für diejenigen, die keine Physiker sind, erläutern, was ein Quantencomputer ist. Was ist der grundsätzliche Unterschied zu klassischen Computern von heute?

Kister: Die klassische beziehungsweise nicht Quantum-Computing-Welt rechnet in sogenannten Bits, einer Informationseinheit, die zwischen 0 und 1 geschaltet ist. In Anlehnung daran ist ein Quantenbit (Qbit) in der Theorie von Nobelpreisträger Richard Feynman entwickelt worden, das sowohl den Zustand 0 als auch den Zustand 1 annehmen kann. Was bedeutet das?

Qbits haben vor allem drei physikalische Eigenschaften, die sie von konventionellen Bits unterscheidet. Die erste Eigenschaft ist die Superposition. Das heißt, bei der Ausmessung muss ein Qbit die Position 0 oder 1 einnehmen, aber vor der Messung ist es im Grunde ein unbestimmter Zustand, der unendlich viele Zustände einnehmen kann. Eine weitere Eigenschaft ist, dass mehrere Qbits bei gemeinsamer Betrachtung eine sogenannte Verschränkung (Entanglement) eingehen können. Das bedeutet, dass die beiden einzelnen Qbits wieder vom Zustand unbestimmt sind – also entweder 0 oder 1 –, aber der Gesamtzustand über beide Qbits bestimmt ist. So kann man durch die Messung eines Qbits in diesem „Zweier-Team“ den Zustand des anderen Q-Bits ermitteln. Das ist ein wirklicher Quanteneffekt, der aus der realen Welt schwer zu deuten ist. Sogar Einstein hatte damit seine Probleme und nannte es „spukhafte Kräfte“, die zwischen den Quanten wirken. Aber wir können diese Eigenschaften ausnutzen und entsprechend auch in der Quanteninformationstechnologie nutzen. Eine dritte wichtige Eigenschaft dieser Qbits ist die Interferenz, das heißt die Qbits sind Wellen und untereinander können die Wellen auch wechselwirken. Sie können also Signale verstärken oder auslöschen. Auch das kann im Quantencomputer genutzt werden.

Mit Qbits kann ich also einen riesengroßen Zustandsraum und Dateninformationen in einer exponentiellen Steigerung abbilden. Wenn man die Qbits auf einem klassischen Rechner simulieren möchte, wird jedoch eine gewisse Speichermenge benötigt, die sich aus der Anzahl der Qbits zusammensetzt. Um die Qbits im Zustandsraum zu simulieren, bräuchte ein klassischer Computer riesige Speicherkapazitäten. Da haben Quantencomputer einen großen Vorteil und das ist ein wesentlicher Unterschied zu den klassischen Computern, die wir heute nutzen.

Rosam: Jetzt stellen sich sicherlich viele die folgende Frage: Wie kann man sich einen Quantencomputer vorstellen? Und wie kann ein Quantencomputer überhaupt genutzt werden?

Kister: Die Qbits sind künstlich hergestellte Quantensysteme. Sie sind kleine Quantensysteme mit zwei Leveln, so dass man genau in Analogie zu den Bits diese zwei Level 0 oder 1 darstellen kann. Es gibt unterschiedliche Verfahren zur Herstellung von Qbits. Bei IBM benutzen wir zum Beispiel supraleitende Qbits. Wie kann man sich das vorstellen? Ein Qbit ist sozusagen ein Schwingkreis, das heißt ich habe eine Kapazität und eine Spule. In diesem Fall ist die Spule ein spezielles, supraleitendes Element, die sogenannte Jonathan Junction. Die damit hergestellten Qbits werden dann abgeschirmt von der Umgebung dargestellt, das heißt sie sind sehr empfindlich gegen äußere Einflüsse wie Licht, Vibration und ganz besonders Wärme. Um zu vermeiden, dass das Quantensystem dadurch negativ beeinflusst und nicht mehr messbar wird, werden die Systeme bis zum absoluten Nullpunkt abgekühlt. Man kann es sich vorstellen wie einen riesigen Kühlschrank und am Chip beträgt die Temperatur nur einige paar Millikelvin (1 Millikelvin = -273,149 Grad Celsius) – es ist also kälter als im Weltraum.

Ein Quantencomputer ist heute eher eine Art Laborgerät mit einer riesigen Glocke darüber. Unter der Glocke befindet sich der Großteil einer Kühlungseinheit und der Quantum-Chip.
Stefan Kister
System Technology Architect und Quantum Ambassador bei IBM

Dadurch können wir einen sehr guten Quantenzustand erreichen, der manipulierbar ist und der entsprechende Gates auf einem Quantencomputer erzeugen kann. Das heißt, ein Quantencomputer ist heute eher eine Art Laborgerät mit einer riesigen Glocke darüber. Unter der Glocke befindet sich der Großteil einer Kühlungseinheit und der Quantum-Chip, der an einer bestimmten Stelle am unteren Teil dieser Kühlungssysteme angebracht ist, um eine möglichst große Abschirmung und Kälte zu erzeugen. Der Vorteil ist, dass heute über das entsprechende Development Kit in der Cloud sich jeder die Algorithmen anschauen kann und auf der Basis vom Byson-Code beschreiben kann.

Kießling: Danke, Stefan. Das war auf jeden Fall eine sehr gute Erläuterung. Niklas, kannst Du uns einen Überblick geben, welche Anwendungsfällen Ihr insbesondere im Finanzsektor habt?

Hegemann: Ja, sehr gerne. Ich möchte Euch einen konkreten Anwendungsfall vorstellen, über den wir auch öffentlich sprechen dürfen. Dabei handelt es sich um unsere letzte Kollaboration mit der Deutschen Börse, mit der wir eine Sensitivitätsanalyse eines Risikomodells entwickelt haben. Konkret geht es dabei um das Geschäftsrisiko und wie äußere makroökonomische, politische, regulatorische und weitere Faktoren das Geschäftsergebnis beeinflussen können. Die Eintritts- und Übergangswahrscheinlichkeiten müssen dabei geschätzt und das Ergebnis mit einer sogenannten Monte-Carlo-Simulation berechnet werden. Wenn man das aktuelle Modell erweitern möchte und die Eingangsparameter auf ihren Einfluss des Gesamteffekt geprüft werden sollen, müsste die Monte-Carlo-Simulation viele zehntausende Male hintereinander ausgeführt werden – und jedes Mal müsste wieder ein Parameter oder auch Pairs gleichzeitig geändert werden. Das würde zu einer Explosion der Rechenzeit um Jahre oder Jahrzehnte führen. Die Sensitivitätsanalyse ist somit auf klassischem Wege nicht in annehmbarer Zeit möglich.

Denn auf klassischem Wege würde die Analyse Jahre dauern und der Quantencomputer schafft es, die Rechenzeit auf eine kleine Kaffeepause zu reduzieren.
Niklas Hegemann
Co-Founder und Managing Director bei JoS QUANTUM

Unser Quantenalgorithmus ermöglicht allerdings die Reduktion der Rechenzeit von Jahren auf Minuten und die Analyse der Eingangsparameter. Dies führt zu robusteren Risikomodellen und kann auch bei anderen Risikoarten angewandt werden, zum Beispiel bei den Ausfallrisiken von Krediten, die Banken an Unternehmen vergeben. Denn meist gibt es bei solchen Risikoarten viele Abhängigkeiten – auch von äußeren Faktoren wie Zinsumsätzen, Marktumfeld und vielen weiteren. Der Quantenalgorithmus der Sensitivitätsanalyse besteht im Wesentlichen aus drei Teilen: Erstens der Implementierung des eigentlichen Risikomodells, das sehr effizient auf einem Quantencomputer funktioniert. Zweitens einer sogenannten Quanten-Monte-Carlo-Simulation und drittens der Suche nach den sensitivsten Parametern. Damit lässt sich herausfinden, welche Input-Parameter beim Ändern der Werte welchen Einfluss auf die Verlustverteilung haben. Der Anwendungsfall stellt in unseren Augen eine sehr gute Einsatzmöglichkeit von Quantum Computing dar, denn auf klassischem Wege würde die Analyse Jahre dauern und der Quantencomputer schafft es, die Rechenzeit auf eine kleine Kaffeepause zu reduzieren. Allerdings sind die Anforderungen an solche Quantencomputer beziehungsweise an die Hardware noch nicht erfüllt. Daher denken wir, dass diese Anwendung sich in frühestens drei bis vier Jahren realisieren lässt.

Neben dem Thema Simulation gibt es auch den Bereich Optimierung, beispielsweise bei Portfolios. Allgemein versteht man darunter den Prozess, ein Finanzportfolio aus Aktien oder Anleihen aus Assets zusammen zu stellen, um ein bestimmtes Ziel zu erreichen. Dies kann die Renditemaximierung oder Verlustminimierung sein oder auch minimale Schwankungen unter bestimmten Nebenbedingungen möglichst optimal zu erfüllen. Je nach Anzahl der Assets und der zu berücksichtigenden Nebenbedingungen ergeben sich komplexe mathematische Probleme. Versicherungen müssen zum Beispiel ihre Assets und Vermögensgegenstände regelmäßig bewerten, reinvestieren und regulatorische Kapitalanforderungen erfüllen. Je höher das Risiko einer Anlage ist, desto höher muss der notwendige Kapitalpuffer sein. Dafür müssen Verlustszenarien über alle Forderungen und Verbindlichkeiten über Jahre hinweg simuliert werden und hieraus ergibt sich ein sehr rechenaufwendiges Modell. In unserem neuesten Forschungsprojekt werden wir uns darauf konzentrieren, wo und wie Quantencomputer dabei eingesetzt werden können, um Risiken genauer und schneller zu bestimmen.

Kießling: Vielen Dank, Niklas. Wir haben dabei gemerkt, dass es sehr stark um Algorithmen geht. Handelt es sich dabei um Algorithmen im klassischen Sinne, wie wir sie heute kennen? Würdest Du sagen, dass somit jeder, der auch heute auf einem klassischen Computer programmieren kann auch auf einem Quantencomputer programmieren kann oder gibt es dafür weitere Voraussetzungen?

Kister: Die Quantenalgorithmen sehen komplett anders aus als die Algorithmen, die wir heute auf den klassischen Computern verwenden. Und es gibt insofern aktuell noch keinen Compiler, der ein Problem meldet. Es ist in der aktuellen Forschung so, dass wir noch auf dem Niveau der Algorithmusentwicklung sind und da ist es meiner Ansicht nach sehr wichtig, das mathematische Problem genau zu verstehen und dieses dann auf dem Quantencomputer in seiner Spezialität mit einer Art von Gates und Entanglement sowie Interferenzmöglichkeiten darzustellen. Diese können auf bekannten Algorithmen aufsetzen, die dann für ein spezifisches Problem weiterentwickelt werden. Das ist deutlich anders als bei der Programmierung einer klassischen Software, die wir heute benutzen.

Unsere Vision ist, dass es deutlich einfacher wird: Daten werden auf den Quantencomputer geladen, über einen bestimmten Quantenalgorithmus erfolgt die Berechnung und schließlich werden die Daten zurück in die klassischen Systeme geführt und weiterverarbeitet.

Aber die Entwicklung geht auch hier weiter: Wir haben seitens IBM beispielsweise im Februar 2021 die sogenannte IBM Development Roadmap, die parallel zur Hardwareentwicklung läuft, veröffentlicht. Darin haben wir uns auf die Fahne geschrieben, dass wir den Zugang von Programmierern zum Quantencomputer und dessen Möglichkeiten wesentlich vereinfachen wollen. Wir sprechen immer von „Frictionless Computing“: Wir wollen das Abstraktionslevel so entwickeln, dass wir einen sogenannten „Modulentwicklerstatus“ haben. An der Schnittstelle zwischen den klassischen Problemen, bei denen wir Quantum Computing einsetzen können, und der Quantum-Technologie sollte nicht mehr so ein tiefgreifendes Wissen wie das eines Algorithmusentwicklers benötigt werden. Unsere Vision ist, dass es deutlich einfacher wird: Daten werden auf den Quantencomputer geladen, über einen bestimmten Quantenalgorithmus erfolgt die Berechnung und schließlich werden die Daten zurück in die klassischen Systeme geführt und weiterverarbeitet. Wir wollen es einfacher machen. Aktuell ist aber noch sehr viel Expertenwissen notwendig, um gute Fortschritte bei einem industriespezifischen Problem erzielen zu können.

Rosam: Vielen Dank, Stefan, für Deine Ausführungen. Das zeigt, dass in diesem Feld noch sehr viel Forschungsaufwand betrieben werden muss. Daher zum Schluss die Frage an euch beide: Wie sollten Banken und institutionelle Finanzdienstleister, zum Beispiel Versicherungen oder Asset Manager, sich auf das Thema Quantum Computing vorbereiten?

Hegemann: Unternehmen sollten sich intern fragen, bei welchen Problemen Quantencomputer eingesetzt werden könnten, bevor sie in die Theorie und dann auch in die Praxis eintauchen. Dabei sind besonders langlaufende Prozesse interessant oder Modelle, bei denen viele Annahmen oder Vereinfachungen getroffen werden, damit man sie überhaupt berechnen kann. Ein Beispiel hierfür ist die Tagesendverarbeitung eines Handelssystems. Hier sollte analysiert werden, welche Schritte die meiste Rechenzeit beanspruchen und damit Verzögerungen verursachen. Zum anderen könnte eine Risikoabteilung langlaufende Simulationen dahingehend untersuchen, ob und bei welchen Modellen stärkere Vereinfachungen getätigt werden können, um Reporting-Prozesse einzuhalten. Auch Monte-Carlo-Simulationen eignen sich meist für Quantenalgorithmen.

Unternehmen sollten sich intern fragen, bei welchen Problemen Quantencomputer eingesetzt werden könnten, bevor sie in die Theorie und dann auch in die Praxis eintauchen.
Niklas Hegemann
Co-Founder und Managing Director bei JoS QUANTUM

Es sollte eine Liste an potenziellen Anwendungsfällen erstellt werden, um diese dann zum Beispiel mit uns zu validieren, mögliche Speed-ups zu evaluieren sowie kleine Prototypen zu bauen und zu testen. Daraus können dann Hardwareanforderungen abgeleitet werden, um eine erste Einschätzung zu geben, in welcher Zeitspanne diese Anwendungsfälle in der Zukunft produktiv eingesetzt werden könnten. Hieraus lässt sich dann eine Strategie-Roadmap für die nächsten fünf bis zehn Jahre ableiten. Denn das ist das wichtigste Thema im Moment: Wie positioniere ich mich als Unternehmen strategisch zu diesem Thema?

Kister: Da schließe ich mich Dir auf jeden Fall an, Niklas. Das ist besonders hinsichtlich der fachlichen Themen relevant. Wir unterteilen die Bereiche, in denen Quantenalgorithmen nach heutiger Forschung gerade im Finanzsektor zukünftig Vorteile – den sogenannten „Quantum Advantage“ – ausspielen können, in drei Kategorien: Optimierung, Simulation und Machine Learning. Deshalb sollte man sich auf jeden Fall mit der Technologie auseinandersetzen und vorausschauend handeln, das heißt Kompetenzaufbau zu betreiben und die Mitarbeiter entsprechend auszubilden. Schon kleine, agil arbeitende Teams reichen aus und – wie bereits erwähnt wurde – sollte Intellectual Property (Geistiges Eigentum) aufgebaut und Research betrieben werden, um genauer zu analysieren, wo der Quantencomputer für die jeweilige Industrie wichtig sein könnte.

Auch wenn wir als IBM noch in der Research-getriebenen Phase sind, machen wir große Fortschritte. 2016 haben wir den ersten Quantencomputer für die Cloud mit 5 Qbits bei IBM angekündigt und 2023 wollen wir laut unserer Roadmap schon über 1.000 Qbits darstellen. Parallel dazu verfolgen wir die weitere Stakes-Entwicklung im Kernelbereich sowie in der Laufzeit und die Vereinfachung der Algorithmusnutzung für den Endverbraucher. Hier entwickelt sich unheimlich vieles unheimlich schnell. Daher empfehle ich auch, sich in die Analyse zu begeben und die ersten Schritte gemeinsam mit einem Startup wie JoS Quantum oder aber auch mit IBM zu gehen. So kann man erst einmal die freien Zugänge nutzen und sich ein Bild von unserem Open-Source-Softwareentwicklungskit Qiskit, machen. 

Fazit

Quantum Computing ist zwar noch eine Nische, aber derzeit der Megatrend im Bereich Datenverarbeitung.

Quantencomputer verarbeiten Informationen in Form von Quantenbits (Qbits). Der Vorteil: Qbits können im Vergleich zu klassischen Bits viel mehr Informationen gleichzeitig repräsentieren. Damit können Qbits in jeder einzelnen Rechenoperation mehr Daten verarbeiten. Für eine Vielzahl praktisch relevanter Anwendungen ergeben sich drastisch beschleunigte Algorithmen. Sie ermöglichen es, Probleme anzugehen, die so komplex sind, dass sie bisher nur näherungsweise oder gar nicht lösbar waren.

Deshalb werden Quantencomputer als die Problemlöser der Zukunft gehandelt.