Quantencomputing - Eine Einführung

Eine Einführung in die elementaren Begriffe und Konzepte des Quantencomputings.

Quantencomputing - Eine Einführung

Einleitung

Quantencomputing zählt zu den vielversprechendsten technologischen Entwicklungen des 21. Jahrhunderts. Anders als klassische Computer, die auf der binären Verarbeitung von Informationen mit Nullen und Einsen beruhen, nutzt ein Quantencomputer die Gesetze der Quantenmechanik, um Daten auf neuartige Weise zu speichern und zu verarbeiten. Diese Technologie könnte Probleme lösen, die für klassische Rechner unzugänglich oder nur mit enormem Aufwand zu bearbeiten sind – etwa in der Materialforschung, der Optimierung oder der Kryptanalyse.

In den letzten Jahren haben sowohl Forschungseinrichtungen als auch Unternehmen erhebliche Fortschritte erzielt: Erste Prototypen von Quantencomputern existieren, Algorithmen wie Shors Faktorisierung oder Grovers Suche zeigen theoretisch exponentielle oder quadratische Vorteile gegenüber klassischen Methoden, und Plattformen wie IBM Q oder D-Wave machen Quantenhardware bereits öffentlich zugänglich.

Doch was steckt hinter all dem Hype? Diese Einführung soll helfen, die Grundprinzipien des Quantencomputings zu verstehen. Wir beginnen mit den fundamentalen Unterschieden zwischen klassischen Bits und Quantenbits, beleuchten zwei zentrale Rechenmodelle – das Quantenannealing und das sogenannte Gate-Paradigma – und werfen einen Blick auf photonische Quantenrechner. Anschließend beleuchten wir Anwendungen, wie die Lösung komplexer Optimierungsprobleme, Simulation chemischer Systeme oder Angriffe auf Verschlüsselungssysteme. Schließlich besprechen wir exemplarisch einige Quantenalgorithmen und wagen einen Ausblick auf die kommenden Entwicklungen.

Unterschied zwischen Bits und Qubits

Die grundlegende Informationseinheit in einem klassischen Computer ist das Bit, das nur zwei Zustände annehmen kann: 0 oder 1. Diese digitale Logik ist die Basis für sämtliche Datenverarbeitung in heutigen Rechnern – von einfachen Rechenoperationen bis hin zu komplexer Softwarearchitektur.

Ein Qubit – kurz für Quantenbit – ist die quantenmechanische Entsprechung eines klassischen Bits. Anders als Bits können Qubits nicht nur 0 oder 1 sein, sondern beide Zustände gleichzeitig – in einer sogenannten Superposition. Formal lässt sich ein Qubit als Linearkombination schreiben:

$|\psi \rangle = \alpha | 0 \rangle + \beta |1\rangle$

wobei $\alpha$ und $\beta$ komplexe Zahlen sind, die die Wahrscheinlichkeitsamplituden darstellen. Die Betragsquadrate $|\alpha|^2$ und $|\beta|^2$ geben an, mit welcher Wahrscheinlichkeit das Qubit beim Messen in den Zustand 0 bzw. 1 übergeht – und ihre Summe muss stets 1 sein.

Ein weiterer fundamentaler Unterschied ist das Quantenverschränkung (Entanglement): Mehrere Qubits können in Zustände gebracht werden, bei denen sich die Zustände der einzelnen Qubits nicht unabhängig voneinander beschreiben lassen. Dadurch entsteht eine nichtlokale Korrelation, die klassische Systeme nicht kennen. Verschränkung ist ein entscheidender Mechanismus, durch den Quantencomputer ihre enorme Rechenleistung entfalten können.

Ein dritter wichtiger Effekt ist die Quanteninterferenz. Da Qubits durch Wellenfunktionen beschrieben werden, können sich verschiedene Pfade einer Berechnung konstruktiv oder destruktiv überlagern. Quantenalgorithmen nutzen dieses Prinzip, um gewünschte Lösungen zu verstärken und unerwünschte zu unterdrücken.

Zusammengefasst:

  • Bits sind binär und unabhängig.
  • Qubits sind überlagerbar, miteinander verschränkt und zeigen Welleneffekte.

Diese Eigenschaften machen Quantencomputer nicht einfach nur „schnellere klassische Computer“, sondern Maschinen mit völlig anderer Funktionsweise und Problemstruktur.

Quantenannealing

Quantenannealing ist ein spezieller Ansatz des Quantencomputings, der auf die Lösung von kombinatorischen Optimierungsproblemen zugeschnitten ist. Im Zentrum steht dabei kein universelles Rechenmodell mit Quantenlogikgattern, sondern die gezielte Nutzung quantenmechanischer Effekte zur Suche nach einem energetischen Minimum in einem physikalischen System.

Ising-Modelle und QUBO-Probleme

Der zentrale physikalische Baustein eines Quantenannealers ist ein System, dessen Energieverhalten durch ein sogenanntes Ising-Modell beschrieben werden kann. Dabei handelt es sich um eine aus der Festkörperphysik stammende Modellklasse, die mit Hilfe von binären Variablen ($s_i \in \{-1, +1\}$) und Wechselwirkungen zwischen diesen Variablen eine Energiefunktion definiert:

$H(s) = \sum_i h_i s_i + \sum_{i<j} J_{ij} s_i s_j.$​.

Dabei stehen $h_i$ für lokale Felder, $J_{ij}$​ für Kopplungen zwischen Qubits, und $H(s)$ ist der sogenannte Hamiltonian, also die Energie des Systems in Konfiguration $s$.

Viele kombinatorische Optimierungsprobleme lassen sich in eine mathematische Form bringen, die als QUBO-Problem (Quadratic Unconstrained Binary Optimization) bekannt ist. Ein solcher QUBO lässt sich dann durch eine geeignete Transformation auf einen Ising-Hamiltonian abbilden. Damit wird das Optimierungsproblem zu einer Frage nach dem Grundzustand eines physikalischen Systems – konkret: Welche Konfiguration minimiert den Hamiltonian?

Der adiabatische Prozess

Im Quantenannealing wird das System zu Beginn in einem bekannten, leicht zu realisierenden Quantenzustand präpariert – typischerweise der Grundzustand eines einfachen Anfangshamiltonians $H_0$​. Danach wird der Hamiltonian schrittweise in Richtung des Problemhamiltonians $H_P$​ verändert, wobei die Zeitentwicklung durch die interpolierte Form

$H(t) = (1 - s(t)) H_0 + s(t) H_P$​

beschrieben wird. Die Funktion$s(t)$ steigt dabei langsam von 0 auf 1 an. Wenn dieser Übergang adiabatisch, also langsam genug erfolgt, dann bleibt das System mit hoher Wahrscheinlichkeit im Grundzustand. Am Ende des Prozesses befindet sich das System im Grundzustand von $H_P$ – und damit in der Lösung des ursprünglichen Optimierungsproblems.

Ein wichtiger quantenmechanischer Vorteil dieses Prozesses ist, dass das System durch Quanten-Tunneleffekte energetische Barrieren durchdringen kann, statt – wie klassische Algorithmen – darüber „klettern“ zu müssen. Das ermöglicht es, lokale Minima zu umgehen und effizienter das globale Minimum zu finden.

Realisierung in der Praxis

Die bekannteste praktische Umsetzung des Quantenannealing-Modells stammt vom kanadischen Unternehmen D-Wave Systems. Deren Maschinen realisieren Ising-Modelle physikalisch mit supraleitenden Qubits, die über bestimmte Topologien (z. B. Chimera- oder Pegasus-Graphen) miteinander gekoppelt sind. Dadurch lassen sich reale QUBO-Probleme als Hamiltonians formulieren und physikalisch „ausrechnen“, indem das System in seinen Grundzustand „annealt“.

Wichtig ist: Ein Quantenannealer ist nicht universell programmierbar wie ein Gate-basierter Quantencomputer. Dafür bietet er aber ein gut kontrollierbares, skalierbares System zur spezialisierten Lösung harter Optimierungsprobleme.

Typische QUBO-Probleme und ihre Bedeutung

Viele reale Fragestellungen lassen sich in die mathematische Form eines QUBO-Problems bringen und damit prinzipiell mit einem Quantenannealer lösen. Einige Beispiele verdeutlichen die Vielfalt der Anwendungen:

  • Job-Shop Scheduling:
    In Produktionsprozessen müssen Arbeitsaufträge über mehrere Maschinen verteilt werden, sodass etwa die Gesamtdauer minimiert und Engpässe vermieden werden. Das QUBO-Modell kodiert die Auswahl und Reihenfolge von Jobs über Binärvariablen, die dann optimiert werden, um einen möglichst effizienten Ablauf zu erzeugen.
  • Logistik und Lieferkettenoptimierung:
    Komplexe Liefernetzwerke erfordern Entscheidungen über Routen, Zeitfenster, Fahrzeugkapazitäten und Lagerhaltung. Diese können in QUBO-Form gebracht werden, wobei die Lösung einer minimalen Kostenstruktur, einer maximalen Pünktlichkeit oder einer optimalen Ressourcennutzung entspricht.
  • Portfolio-Optimierung in der Finanzwelt:
    Die Auswahl eines Wertpapierportfolios bei gegebenem Risiko- und Renditeprofil lässt sich als QUBO formulieren, wobei Binärvariablen festlegen, ob ein Finanzprodukt enthalten ist oder nicht. Ziel ist es, die Kombination zu finden, die eine gewünschte Bilanz zwischen Sicherheit und Gewinn verspricht.
  • RNA-Faltung in der personalisierten Medizin:
    Bei RNA-basierten Therapien – etwa in der personalisierten Medizin – geht es darum, RNA-Stränge zu entwickeln, die in Zellen möglichst effizient ein gewünschtes Protein erzeugen. Ein zentraler Schritt ist es, vorherzusagen, wie sich eine gegebene RNA-Sequenz im Raum faltet – da die Funktion des Moleküls stark von seiner räumlichen Struktur abhängt.
    Dieses Faltungsproblem lässt sich als QUBO modellieren, bei dem die Binärvariablen mögliche Kopplungen von Basenpaaren darstellen. Die Optimierung sucht nach der energetisch stabilsten Faltung, was direkte Auswirkungen auf die Wirksamkeit und Spezifität eines Medikaments haben kann.

Das Gate-Paradigma

Während Quantenannealer auf die Lösung von Optimierungsproblemen spezialisiert sind, verfolgt das sogenannte Gate-Paradigma das Ziel eines universellen Quantencomputers – also einer Maschine, die prinzipiell jede beliebige Quantenberechnung ausführen kann. Dieses Modell ist das direkte Gegenstück zur klassischen digitalen Rechenarchitektur und orientiert sich an der Schaltungstechnik mit Logikgattern, wie man sie von herkömmlichen Prozessoren kennt.

Qubits und Quantenschaltkreise

Auch im Gate-Modell bilden Qubits die grundlegenden Informationsträger. Eine Quantenberechnung besteht hier aus einer Abfolge von Quantenlogikgattern, die einzelne Qubits oder Qubitpaare manipulieren. Jedes Gatter entspricht dabei einer unitären Operation, also einer reversiblen Transformation des Qubit-Zustandsraums.

Typische Gatter sind zum Beispiel:

  • Hadamard-Gatter (H): Erzeugt Superpositionen.
  • Pauli-Gatter (X, Y, Z): Entsprechen quantenmechanischen Analogien zu klassischen Invertier- und Rotationsoperationen.
  • CNOT-Gatter: Verknüpft zwei Qubits miteinander (kontrollierte Negation), essenziell für die Erzeugung von Verschränkung.

Durch die gezielte Kombination solcher Gatter entsteht ein Quanten-Schaltkreis – ein Ablaufplan, der aus einem Anfangszustand durch sukzessive Transformationen einen Zielzustand erzeugt. Die finale Messung der Qubits liefert dann ein klassisches Ergebnis, aus dem Rückschlüsse auf die Lösung des Problems gezogen werden können.

Universalität

Ein entscheidendes Merkmal des Gate-Paradigmas ist seine Universalität: Es ist mathematisch bewiesen, dass eine kleine Menge von Grundgattern – z. B. Hadamard-, CNOT- und T-Gatter – ausreicht, um jede beliebige unitäre Operation (und damit jede quantenmechanische Berechnung) mit beliebiger Genauigkeit zu approximieren. Damit ist das Gate-Modell das direkte quantenmechanische Gegenstück zur Turingmaschine.

Herausforderungen in der Praxis

Die Umsetzung dieser Architektur stellt allerdings enorme technische Anforderungen: Qubits müssen nicht nur kontrolliert manipulierbar sein, sondern auch kohärent bleiben, d. h. sie dürfen während der Berechnung nicht mit der Umgebung wechselwirken. Schon geringe Störungen – etwa durch Wärmestrahlung oder magnetische Felder – können die empfindlichen Quantenzustände zerstören.

Daher sind praktische Gate-basierte Quantencomputer heute noch relativ klein (mit wenigen Dutzend bis Hundert Qubits) und arbeiten mit sogenannten fehleranfälligen, nicht-korrektierten Qubits. Fortschritte im Bereich der Fehlerkorrektur und der Quantenarchitektur (z. B. mit supraleitenden Schaltkreisen, Ionenfallen oder Spins in Festkörpern) sind zentrale Voraussetzungen für den Weg hin zu leistungsfähigen, skalierbaren Quantenprozessoren.

Photonische Quantenrechner

Photonische Quantencomputer nutzen Lichtteilchen – Photonen – als Informationsträger. Anders als bei supraleitenden Qubits oder Ionenfallen basiert diese Architektur nicht auf Materieteilchen, sondern auf den Quanteneigenschaften elektromagnetischer Felder. Photonen sind dabei besonders attraktiv, weil sie sich nur sehr schwach mit der Umgebung koppeln, was sie robust gegenüber Dekohärenz macht – einem der zentralen Probleme anderer Quantenplattformen. Außerdem lassen sich optische Komponenten (Spiegel, Strahlteiler, Wellenleiter) mit hoher Präzision und etablierten Technologien kontrollieren und miniaturisieren.

Qumodes und kontinuierlich-variable Quanteninformation (CV)

Während viele Quantenplattformen mit diskreten Qubits arbeiten, setzen photonische Rechner häufig auf kontinuierlich-variable Systeme, sogenannte Qumodes. Dabei werden nicht zwei diskrete Zustände (wie $|0⟩$ und $|1⟩$) unterschieden, sondern Eigenschaften wie die Amplitude und Phase eines Lichtfelds genutzt – also kontinuierliche Größen, die als Operatoren auf Unschärferelationen unterliegen.

Die Quanteninformation wird hier in Zuständen wie gequetschten Zuständen (squeezed states), kohärenten Zuständen oder Fock-Zuständen kodiert. Diese Qumodes lassen sich manipulieren durch lineare Optik, nichtlineare Wechselwirkungen und geeignete Messungen, wodurch Rechenoperationen auf dem kontinuierlichen Zustandsraum realisiert werden können.

Gaussian Boson Sampling und Quantum Supremacy

Ein bedeutender Meilenstein photonischer Quantencomputer ist die Klasse von Problemen namens Gaussian Boson Sampling (GBS). Hierbei wird eine bestimmte Anzahl von gequetschten Lichtzuständen in ein lineares optisches Netzwerk eingespeist. Durch Interferenz und Messung der Ausgänge entsteht eine Wahrscheinlichkeitsverteilung, deren exakte Berechnung für klassische Computer extrem aufwendig ist – aber mit einem photonischen System natürlich erfolgt.

Diese Methode ist nicht universell, d. h. sie löst kein beliebiges Problem. Aber sie hat große Bedeutung für den Nachweis sogenannter quantum supremacy: Die Fähigkeit eines Quantencomputers, eine Aufgabe effizient zu lösen, die für klassische Rechner faktisch unmöglich ist. Der Nachweis solcher Aufgaben auf photonischer Basis wurde bereits experimentell demonstriert – u. a. durch Gruppen in China und durch die Firma Xanadu.

Photonische Gate-Rechner

Neben Boson Sampling gibt es auch Bestrebungen, universelles Quantencomputing mit Photonen zu realisieren. Dies geschieht etwa im Rahmen des KLM-Schemas (Knill–Laflamme–Milburn), das zeigte, dass sich durch eine Kombination von einzelnen Photonen, linearen optischen Elementen (wie Strahlteiler und Phasenschieber), Photonendetektoren und Mess-basiertem Feedforward ein universelles Rechenmodell aufbauen lässt.

Allerdings ist dieser Ansatz mit einem hohen Ressourcenaufwand verbunden – insbesondere, da viele Operationen probabilistisch sind und nur mit gewisser Wahrscheinlichkeit gelingen. Die praktische Skalierung solcher Systeme ist derzeit noch eine offene Herausforderung, auch wenn Fortschritte in der integrierten Photonik zunehmend Hoffnung machen.

Aktuelle Entwicklungen: Xanadu und Q.ANT

Die kanadische Firma Xanadu verfolgt einen photonischen Ansatz mit kontinuierlich-variablen Qumodes und gequetschten Zuständen. Ihr System „Borealis“ gilt als eines der leistungsfähigsten photonischen Quantenprozessoren der Welt und wurde 2022 zur Demonstration von Gaussian Boson Sampling auf einem Niveau genutzt, das klassische Rechner praktisch nicht mehr nachvollziehen konnten.

Auch das deutsche Unternehmen Q.ANT arbeitet an photonischen Quantenprozessoren und -sensoren, setzt dabei aber teils andere Architekturen ein. Beide Unternehmen verfolgen den Weg hin zu skalierbaren, industriell nutzbaren photonischen Quantenlösungen – teils im Bereich der Datenverarbeitung, teils mit Anwendungen in der Sensorik und Bildverarbeitung.

Überblick über Anwendungen: Optimierung, Chemie, Kryptographie

Quantencomputer sind nicht einfach nur schnellere klassische Computer. Vielmehr bieten sie einen grundsätzlich anderen Rechenansatz, der für bestimmte Probleme einen strukturellen Vorteil bietet. Diese Vorteile zeigen sich vor allem in drei Bereichen:

1. Optimierungsprobleme

Viele wirtschaftliche und technische Fragestellungen – etwa in der Logistik, im Finanzwesen oder in der industriellen Planung – lassen sich als Optimierungsprobleme formulieren. Insbesondere kombinatorische Probleme, bei denen eine große Anzahl möglicher Lösungen verglichen werden muss, profitieren von quantenmechanischen Effekten wie Superposition, Verschränkung und Quanteninterferenz. Sowohl Quantenannealing als auch gate-basierte Algorithmen (z. B. QAOA) werden hier aktiv erforscht.

2. Simulation chemischer und physikalischer Systeme

Ein vielversprechendes Einsatzfeld ist die Quantenchemie. Die Eigenschaften von Molekülen, Materialien oder Reaktionsverläufen hängen direkt mit der Quantenmechanik zusammen – und lassen sich mit klassischen Computern oft nur näherungsweise oder gar nicht berechnen. Quantencomputer könnten z. B. den Grundzustand eines Hamiltonians direkt bestimmen, was Anwendungen in der Materialwissenschaft, Katalyse oder Medikamentenentwicklung eröffnet.

3. Kryptographie und sichere Kommunikation

Einer der bekanntesten Quantenalgorithmen – Shors Algorithmus – kann große Zahlen effizient faktorisieren. Damit wäre ein wesentlicher Bestandteil klassischer Kryptosysteme wie RSA gefährdet. Parallel dazu eröffnen Quantenprinzipien aber auch neue Möglichkeiten zur absolut sicheren Kommunikation, etwa durch quantenbasierte Schlüsselverteilung (QKD). Quantencomputer sind also sowohl Herausforderung als auch Chance für die Informationssicherheit der Zukunft.

Anwendungsfall: Grundzustand eines Hamiltonians

Ein zentrales Konzept in der Physik, Chemie und Optimierung ist der sogenannte Hamiltonian – eine mathematische Funktion, die einem physikalischen System eine Energie zuordnet. In vielen Anwendungsfällen geht es darum, den Grundzustand, also den Zustand mit minimaler Energie, zu finden. Genau hier setzen mehrere bedeutende Quantenalgorithmen an.

Der Hamiltonian als Problemformulierung

Ob es um die Konfiguration eines Moleküls, die Faltung eines Proteins oder die Lösung eines Optimierungsproblems geht – all das lässt sich als die Suche nach dem Zustand mit der niedrigsten Energie innerhalb eines Hamiltonians formulieren. Der Hamiltonian kann dabei sehr verschieden aussehen:

  • In der Quantenchemie beschreibt er die Wechselwirkungen von Elektronen in einem Molekül (z. B. durch den elektronischen Schrödinger-Hamiltonian).
  • In der Optimierung wird er meist als QUBO-Form oder als Ising-Modell geschrieben, wie bereits im Abschnitt zum Quantenannealing beschrieben.

Gate-basierte Quantencomputer bieten hier neue Ansätze zur Lösung – allen voran durch die variationalen Quantenalgorithmen.

VQE – Variational Quantum Eigensolver

VQE ist ein hybrider Algorithmus, der Quanten- und klassische Rechentechnik kombiniert. Ziel ist es, den Erwartungswert der Energie eines Zustands $|\psi(\vec{\theta})⟩$ zu minimieren, wobei $\vec{\theta}$ eine Menge von parametrisierbaren Variablen ist. Der Ablauf ist wie folgt:

  1. Ein quantenschaltkreis berechnet mit gegebenen Parametern $\vec{\theta}$ den Zustand $|\psi⟩$.
  2. Dieser Zustand wird auf dem Quantencomputer gemessen, um den Erwartungswert $\langle \psi | H | \psi \rangle$ zu berechnen.
  3. Ein klassischer Optimierer passt die Parameter $\vec{\theta}$ so an, dass die Energie minimiert wird.
  4. Der Zyklus wiederholt sich, bis ein Minimum gefunden ist.

VQE ist besonders gut geeignet für chemische Systeme, da man dort hochkomplexe elektronische Hamiltonians hat, aber relativ kleine Quantenschaltkreise für ihre Approximation verwenden kann. Anwendungen reichen von der Modellierung einfacher Moleküle wie Wasserstoff bis zu potenziellen Quantendesigns für Materialien oder Medikamente.

QAOA – Quantum Approximate Optimization Algorithm

QAOA ist ein verwandter Ansatz, der speziell auf kombinatorische Optimierungsprobleme abzielt. Auch hier wird ein parametrisiertes Quantensystem konstruiert – allerdings orientiert sich der Aufbau direkt an der adiabatischen Zeitentwicklung: Man alterniert zwischen zwei Hamiltonians – einem Misch-Hamiltonian, der Superpositionen erzeugt, und dem Problem-Hamiltonian, der das zu lösende QUBO beschreibt.

Die Parameter (Evolutionszeiten) werden variational optimiert, um eine möglichst gute Lösung – d. h. eine Konfiguration mit möglichst niedriger Energie – zu finden. QAOA kann als eine gate-basierte „Diskretisierung“ des Quantenannealings verstanden werden, mit der zusätzliche Flexibilität, direkt auf heutiger Quantenhardware lauffähig zu sein.

Anwendungsspektrum

  • In der Optimierung:
    Sowohl VQE als auch QAOA lassen sich auf kombinatorische Probleme anwenden – etwa für Job Scheduling, Routing, Finanzportfolios oder Layoutprobleme.
  • In der Quantenchemie:
    VQE gilt aktuell als führender Algorithmus zur Simulation kleiner Moleküle. Schon auf heutigen Noisy Intermediate-Scale Quantum (NISQ)-Geräten konnten exakte oder nahezu exakte Energie-Niveaus für einfache Moleküle berechnet werden.
  • In der Materialwissenschaft:
    Die Vorhersage von elektronischen Eigenschaften und Bindungsstrukturen komplexer Materialien wäre ein potenzieller „Quanten-Vorteil“, sobald Hardware und Algorithmen ausreichend skaliert sind.

Grover – Quantenalgorithmus für unsortierte Suche

Stellen wir uns vor, wir suchen einen bestimmten Eintrag in einer unsortierten Datenbank mit $N$ möglichen Einträgen – etwa einen bestimmten Schlüssel in einer langen Liste. Klassisch müssten wir im Mittel etwa $N/2$ Einträge prüfen, im schlimmsten Fall sogar alle $N$. Genau hier setzt Grovers Algorithmus an: Er benötigt nur etwa$\sqrt{N}$ Schritte, um das gesuchte Element zu finden – ein quadratischer Geschwindigkeitsvorteil.

Das Problem

Formal formuliert: Gegeben ist eine Funktion $f(x)$, die für genau einen Wert $x^*$ den Wert 1 ergibt (und sonst 0). Ziel ist es, $x^*$ zu finden. Klassisch bräuchte man im Mittel $N/2$ Anfragen an $f$, mit Grover sind es nur etwa $\mathcal{O}(\sqrt{N})$.

Funktionsweise

Grovers Algorithmus funktioniert auf gate-basierten Quantencomputern und nutzt drei fundamentale Konzepte:

  1. Superposition:
    Der Algorithmus startet mit einer gleichmäßigen Überlagerung aller möglichen Eingabewerte$|x\rangle$. Das heißt, der Rechner „probiert“ zunächst alle Möglichkeiten gleichzeitig aus – ein Zustand, der klassisch nicht möglich ist.
  2. Orakelfunktion:
    Eine spezielle Quantenschaltung (das „Orakel“) markiert das gesuchte Element $x^*$, indem es dessen Vorzeichen invertiert:$|x^*\rangle \mapsto -|x^*\rangle$.
  3. Amplitude Amplification (Interferenz):
    Durch eine spezielle Transformation – die sogenannte Grover-Diffusion – werden die Amplituden der korrekten Lösung verstärkt, während die anderen geschwächt werden. Dieser Vorgang wird iterativ wiederholt.

Nach etwa $\sqrt{N}$​ Wiederholungen ist die Amplitude der gesuchten Lösung so dominant, dass eine Messung mit hoher Wahrscheinlichkeit genau $x^*$ liefert.

Bedeutung und Anwendungen

Grovers Algorithmus ist nicht universell, aber er zeigt exemplarisch, wie Quantencomputer durch Interferenz Vorteile erzielen können – nicht durch paralleles Ausprobieren, sondern durch gezielte Verstärkung der richtigen Lösung.

Mögliche Anwendungsfelder:

  • Suche in unstrukturierten Datenbanken (z. B. Passwortsuche),
  • Optimierungsprobleme mit Kandidatenprüfung,
  • Umkehr von Hashfunktionen (relevant für die Sicherheit bestimmter kryptografischer Verfahren),
  • Teilprobleme in der KI, etwa bei der Suche in Zustandsräumen.

Allerdings: Auch wenn Grovers quadratischer Vorteil beeindruckend ist, ersetzt er keine klassischen Indexstrukturen oder sortierte Daten – dort sind klassische Algorithmen oft effizienter. Sein größter Wert liegt in der theoretischen Demonstration eines echten quantenmechanischen Vorteils.

Shor – Primfaktorzerlegung mit exponentiellem Vorteil

Einer der berühmtesten Quantenalgorithmen stammt von Peter Shor, der 1994 einen Algorithmus entwickelte, mit dem sich große Zahlen exponentiell schneller faktorisieren lassen als mit den besten bekannten klassischen Verfahren. Das hat enorme Bedeutung für die Informationssicherheit: Viele kryptografische Verfahren – etwa RSA – beruhen auf der Annahme, dass Faktorisierung großer Zahlen praktisch nicht effizient möglich ist.

Das Problem

Gegeben ist eine große natürliche Zahl $N$. Gesucht sind zwei nicht-triviale Faktoren $a$ und $b$, sodass $N = a \cdot b$. Klassische Algorithmen, wie das Quadratische Sieb oder die Zahlkörpersieb-Methode, benötigen exponentiell wachsende Rechenzeit. Mit wachsender Schlüssellänge (z. B. 2048 Bit) werden sie unpraktisch.

Shors Algorithmus schafft das in polynomieller Zeit auf einem Quantencomputer – also mit einem exponentiellen Vorteil gegenüber klassischen Verfahren.

Grundidee

Shors Algorithmus besteht aus zwei Teilen:

  1. Klassischer Teil:
    Man wählt eine Zufallszahl $a < N$ und prüft, ob sie einen nicht-trivialen Teiler mit $N$ teilt. Falls nicht, geht es weiter zur Kernidee des Algorithmus: die Bestimmung der Periode einer Funktion.
  2. Quantenteil – Periodenbestimmung:
    Man betrachtet die Funktion $f(x) = a^x \mod N$ und sucht die kleinste Periode $r$, sodass $a^r \equiv 1 \mod N$.
    Diese Periodenbestimmung ist der schwierige Teil – und hier kommt der Quantencomputer ins Spiel. Mit Hilfe einer Quanten-Fouriertransformation kann der Quantencomputer diese Periode effizient bestimmen.

Haben wir die Periode $r$, kann man daraus mit hoher Wahrscheinlichkeit einen Teiler von $N$ berechnen. Der gesamte Algorithmus läuft in polynomieller Zeit in $\log N$.

Warum ist das wichtig?

Die RSA-Verschlüsselung, wie sie z. B. beim Online-Banking oder bei digitalen Signaturen verwendet wird, basiert auf der Annahme, dass große Zahlen nur sehr schwer in Primfaktoren zerlegbar sind. Shors Algorithmus würde diese Annahme unterlaufen – sobald ein ausreichend großer, fehlerkorrigierter Quantencomputer zur Verfügung steht.

Aktueller Stand

Noch ist kein Quantencomputer groß genug, um praxisrelevante RSA-Schlüssel (z. B. 2048 Bit) zu faktorisieren – bestehende Demonstrationen betreffen sehr kleine Zahlen (z. B. 15, 21). Dennoch ist Shors Algorithmus der Grund, warum weltweit an Post-Quanten-Kryptographie gearbeitet wird: Verfahren, die auch dann sicher bleiben sollen, wenn Quantencomputer Realität werden.

Ausblick

Quantencomputing hat in den letzten Jahren bemerkenswerte Fortschritte gemacht – sowohl konzeptionell als auch technologisch. Erste funktionsfähige Quantenprozessoren mit Dutzenden bis Hunderten von Qubits sind verfügbar, Unternehmen und Forschungseinrichtungen testen reale Anwendungen, und Algorithmen wie VQE, QAOA, Grover oder Shor zeigen auf, was langfristig möglich wäre.

Gleichzeitig befinden wir uns nach wie vor im NISQ-Zeitalter (Noisy Intermediate-Scale Quantum): Die heutigen Quantenrechner sind noch fehleranfällig, begrenzt skalierbar und nicht fehlerkorrigiert. Sie eignen sich eher für hybride Algorithmen und explorative Anwendungen – nicht für den breiten produktiven Einsatz.

Was ist in den nächsten Jahren zu erwarten?

  • Fehlerkorrektur und Skalierung:
    Der Weg zu nützlichen, universellen Quantencomputern führt über robuste Fehlerkorrekturverfahren. Das erfordert Hunderttausende bis Millionen physikalische Qubits – eine gewaltige ingenieurtechnische Herausforderung, an der aber weltweit intensiv gearbeitet wird.
  • Anwendungsspezifische Quantenprozessoren:
    Für spezielle Probleme – z. B. Optimierung, Molekülsimulation oder Bildverarbeitung – könnten bald spezialisierte Quantenprozessoren entstehen, die keine universellen Rechner sind, aber praktische Vorteile bieten.
  • Hybride Ansätze:
    Die Verknüpfung von klassischen und quantenmechanischen Methoden (etwa bei VQE oder QAOA) dürfte der zentrale Pfad für die nächste Dekade sein. Hier lassen sich schrittweise Fortschritte erzielen, auch ohne perfekte Hardware.
  • Neue Algorithmen und Architekturideen:
    Viele heute bekannte Quantenalgorithmen stammen aus den 1990er- und frühen 2000er-Jahren. Es ist gut möglich, dass neue Paradigmen, etwa aus der Quantenmaschinellen Intelligenz oder aus dem Bereich der Topologischen Quanteninformatik, künftig ganz neue Wege eröffnen.
  • Gesellschaftliche und wirtschaftliche Auswirkungen:
    Die Frage ist nicht nur, ob Quantencomputer funktionieren – sondern auch, wofür und unter welchen Rahmenbedingungen sie eingesetzt werden. Sicherheitsstandards, Zugang, Regulierungsfragen und gesellschaftliche Verantwortung spielen zunehmend eine Rolle.

Quantencomputing steht heute dort, wo klassische Rechner in den 1940er- oder 1950er-Jahren standen: erste funktionierende Maschinen, noch voller Einschränkungen – aber mit revolutionärem Potenzial. Ob in der Chemie, der Logistik, der Kryptographie oder der Materialwissenschaft: Wer die Quantenrechner von morgen versteht, kann die Technologien von übermorgen gestalten.

Anhang: Mathematische und physikalische Grundlagen des Quantencomputings

Dieser Anhang erläutert zentrale Begriffe, die im Haupttext verwendet wurden. Ziel ist ein grundlegendes Verständnis der mathematischen und physikalischen Struktur, auf der Quantencomputing basiert.

1. Komplexe Zahlen

Quantenmechanik basiert auf komplexer Mathematik. Eine komplexe Zahl hat die Form

$z = a + ib \in \mathbb{C}$,

wobei $a$ der Realteil und $b$ der Imaginärteil ist, $i$ ist definiert durch $i^2 = -1$.
Komplexe Zahlen spielen in der Quantenmechanik eine zentrale Rolle, weil Zustände als sogenannte Wellenfunktionen mit komplexen Amplituden beschrieben werden.

2. Zustände und Superposition

Ein Qubit ist ein Vektor in einem zweidimensionalen komplexen Hilbertraum, d.h. einem Raum, in dem sich Winkel und Abstände berechnen lassen (auch wenn er möglicherweise unendlich dimensional ist). Allgemein gilt:

$|\psi\rangle = \alpha |0\rangle + \beta |1\rangle$,

wobei $\alpha, \beta \in \mathbb{C}$ und $|\alpha|^2 + |\beta|^2 = 1$.
Die Basiszustände $|0⟩$ und $|1⟩$ sind analog zu klassischen Bits, aber Superpositionen wie oben sind rein quantenmechanisch. Das bedeutet: Das Qubit „ist“ nicht 0 oder 1, sondern beides zugleich – bis es gemessen wird.

3. Amplituden und Wahrscheinlichkeiten

Die Koeffizienten $\alpha$ und $\beta$ heißen Amplituden. Erst ihr Betragsquadrat hat eine direkte physikalische Bedeutung:

  • $|\alpha|^2$: Wahrscheinlichkeit, bei einer Messung den Zustand $|0⟩$ zu erhalten
  • $|\beta|^2$: Wahrscheinlichkeit, den Zustand $|1⟩$ zu erhalten

Die Messung ist nichtdeterministisch, sondern probabilistisch.

4. Verschränkung (Entanglement)

Zwei Qubits können miteinander verschränkt sein, wenn ihr gemeinsamer Zustand nicht als Produkt einzelner Zustände geschrieben werden kann. Beispiel:

$|\Phi^+\rangle = \frac{1}{\sqrt{2}}(|00\rangle + |11\rangle)$

Bei diesem sogenannten "Bellstate" lässt sich nicht sagen, was das erste oder zweite Qubit „allein“ ist. Verschränkung ist ein genuin quantenmechanisches Phänomen und wird aktiv genutzt, um Quantenalgorithmen zu beschleunigen und Quantenkommunikation abzusichern.

Anschaulich bedeutet es, dass die beiden Qubits so verschränkt sind, dass wenn ich eins der beiden ausmesse, auch das andere kenne.

5. Der Hamiltonian

Der Hamiltonian $H$ ist eine mathematische Funktion, die einem physikalischen System seine Energie zuordnet. Er ist ein Operator auf dem Zustandsraum und oft hermitesch (selbstadjungiert). In vielen Algorithmen geht es darum, den Grundzustand des Hamiltonians zu finden – den Zustand $|\psi_0⟩$ mit der minimalen Energie $E_0$​:

$H |\psi_0\rangle = E_0 |\psi_0\rangle$

6. Adiabatischer Prozess

Ein adiabatischer Prozess bedeutet in der Quantenmechanik:
Wenn ein System sich im Grundzustand eines Hamiltonians $H_0$​ befindet und dieser Hamiltonian langsam in einen neuen Hamiltonian $H_P$​ überführt wird, dann bleibt das System im Grundzustand – sofern der Prozess langsam genug und der Energieabstand zum nächsten Zustand groß genug ist. Dieses Prinzip ist die Grundlage für Quantenannealing und QAOA.

7. Unitäre Operatoren

Quantenberechnungen bestehen aus unitären Transformationen – also Operationen $U$, die Längen und Winkel im Zustandsraum erhalten:

$U^\dagger U = I$

Diese Operatoren sind umkehrbar und beschreiben zeitliche Entwicklungen in geschlossenen Quantensystemen. Alle Gate-basierten Quantenalgorithmen basieren auf Ketten solcher unitärer Operationen.

8. Messung

Die Messung ist der einzige Schritt im Quantencomputing, der nicht unitär ist. Sie projiziert einen Superpositionszustand auf einen der klassischen Basiszustände – mit einer Wahrscheinlichkeit, die durch die Amplituden gegeben ist. Nach der Messung ist das System in einem definierten Zustand und verliert seine Superposition.

9. Tensorprodukt und Mehr-Qubit-Systeme

Für mehrere Qubits wird der Gesamtzustand über das Tensorprodukt der Einzelzustände beschrieben:

$|\psi\rangle = |\psi_1\rangle \otimes |\psi_2\rangle$

Nur so lassen sich komplexe Mehr-Qubit-Zustände, insbesondere verschränkte Zustände, mathematisch korrekt darstellen.

10. Quanten-Fourier-Transformation (QFT)

Ein zentrales Werkzeug für viele Algorithmen (z. B. Shor) ist die Quanten-Fourier-Transformation, eine unitäre Operation, die ähnlich wie die klassische Fourier-Transformation Frequenzinformationen extrahiert. Sie ermöglicht unter anderem das effiziente Auffinden von Perioden.

11. Interferenz

Quantenamplituden verhalten sich wie Wellen: Sie können sich konstruktiv (verstärkend) oder destruktiv (auslöschend) überlagern. Diese Interferenz ist essenziell für viele Quantenalgorithmen – sie ermöglicht es, falsche Lösungen „wegzudrücken“ und richtige Lösungen zu verstärken.

12. Qumodes und kontinuierlich-variable Quanteninformation (CV)

Qumodes sind die kontinuierlich-variablen (CV) Gegenstücke zu Qubits. Statt diskreter Zustände wie $|0⟩$ und $|1⟩$ verwendet man hier Quantenzustände von Lichtfeldern, z. B. den Ort ($\hat{x}$) und Impuls ($\hat{p}$​) eines elektromagnetischen Modus – zwei kontinuierliche, miteinander verschränkte Größen.

Zentrale Zustände in CV-Systemen:

  • Kohärente Zustände (näherungsweise klassische Lichtzustände),
  • Gequetschte Zustände (squeezed states), bei denen das Quantenrauschen entlang einer Observablen reduziert wird,
  • Fock-Zustände mit definierter Photonenzahl.

Diese Systeme eignen sich besonders gut für photonische Quantencomputer, bei denen Rechenoperationen oft als Transformationen in einem kontinuierlichen Phasenraum beschrieben werden.

13. KLM-Schema (Knill–Laflamme–Milburn)

Das KLM-Schema ist ein theoretischer Durchbruch, der bewiesen hat: Es ist möglich, mit nur linearen optischen Elementen, Einzelphotonen, Photonendetektoren und Mess-basiertem Feedforward universelles Quantencomputing zu betreiben – ganz ohne direkte Wechselwirkung zwischen Photonen.

Das Grundprinzip:

  • Quantenlogikgatter werden indirekt durch Interferenz, Messung und Konditionierung realisiert.
  • Viele Operationen sind probabilistisch – aber durch Wiederholung und Fehlerkorrektur kann universelle Berechnung dennoch erreicht werden.

In der Praxis ist das KLM-Modell sehr ressourcenintensiv, bildet aber die theoretische Basis für viele photonische Architekturen.

14. Boson Sampling und Gaussian Boson Sampling

Boson Sampling ist kein universeller Quantenalgorithmus, sondern ein spezielles Problem, das auf dem Verhalten von identischen, nicht-wechselwirkenden Photonen basiert, die durch ein lineares optisches Netzwerk laufen. Die Wahrscheinlichkeit, dass eine bestimmte Photonenverteilung am Ausgang beobachtet wird, hängt von Permanenten komplexer Matrizen ab – eine Berechnung, die für klassische Computer extrem schwer ist.

Gaussian Boson Sampling (GBS) ist eine Erweiterung davon, bei der nicht einzelne Photonen, sondern gequetschte Zustände (Gaussian states) eingespeist werden. Es ist einfacher experimentell umzusetzen und mathematisch ebenso komplex.

Bedeutung:

  • GBS gilt als Kandidat für den experimentellen Nachweis von Quantum Supremacy.
  • Es lässt sich auf reale Probleme anwenden – z. B. in der Graphenanalyse, Chemie und Optimierung.