Die Zukunft der Quantenchemie: Vom Molekül zum Algorithmus
Ein Überblick über die Vorgehensweise zur Chemie auf dem Quantencomputer
Einleitung – Warum Quantencomputer Chemie verändern könnten
Ob neue Medikamente, leistungsfähigere Batterien oder Materialien mit exotischen Eigenschaften – die Entwicklung moderner Werkstoffe und Moleküle ist heute vor allem eines: ein Rechenproblem. Denn ob ein Stoff elektrisch leitet, wie stabil er ist oder wie gut er eine bestimmte Reaktion katalysiert, hängt im Kern vom Verhalten seiner Elektronen ab. Diese bewegen sich nach den Regeln der Quantenmechanik, und um ihre Wechselwirkungen exakt zu verstehen, müsste man die Schrödingergleichung für das System lösen.
Genau hier beginnt das Dilemma: Die exakte Lösung dieses Problems ist selbst für kleine Moleküle jenseits dessen, was klassische Computer leisten können. Der Grund ist die exponentielle Zunahme des Rechenaufwands: Mit jedem zusätzlichen Elektron wächst die Zahl der möglichen quantenmechanischen Zustände dramatisch, sodass selbst Supercomputer gezwungen sind, Näherungen wie die Dichtefunktionaltheorie (DFT) zu verwenden. Diese sind zwar effizient, können aber in vielen wichtigen Fällen – etwa bei Materialien mit stark korrelierten Elektronen wie Hochtemperatur-Supraleitern oder bestimmten Übergangsmetalloxiden – qualitativ falsche Vorhersagen machen.
Quantencomputer bieten hier einen grundlegend anderen Ansatz: Sie verarbeiten Quanteninformationen in Qubits, die selbst quantenmechanische Zustände annehmen können. Dadurch lassen sich Elektronenbewegungen und -korrelationen direkt im quantenmechanischen Rahmen darstellen, ohne dass der Speicherbedarf explodiert. Besonders interessant ist das für Aufgaben wie die Berechnung von Grundzustandsenergien – eine Schlüsselgröße in der Quantenchemie und Materialforschung. Gelingt es, diese effizient und präzise zu bestimmen, kann das die Entwicklung neuer Werkstoffe und Moleküle erheblich beschleunigen.
Die Bandbreite möglicher Anwendungen ist groß: In der Materialwissenschaft könnten Quantencomputer helfen, die elektronischen Eigenschaften von neuartigen Halbleitern oder supraleitenden Materialien vorherzusagen. In der Energieforschung könnten sie neue Batteriechemien oder Katalysatoren für Wasserstoffproduktion erschließen. Und in der Pharmaforschung könnten sie das präzise Wechselspiel zwischen Wirkstoffmolekül und Zielprotein berechnen, lange bevor ein Laborversuch nötig ist.
Um zu verstehen, wie Quantencomputer solche Probleme angehen, müssen wir einen Blick auf das mathematische Herz der Materie werfen: den Hamiltonian des Systems. Er beschreibt die gesamte Energie – und damit die gesamte Physik – eines Moleküls oder Materials. Gesucht ist in der Quantenchemie meist der Grundzustand – also der niedrigstmögliche Energiezustand des Systems. Aus ihm lassen sich zentrale Eigenschaften wie Bindungsstärken, Reaktionsenergien oder elektronische Strukturen ableiten.
Von der physikalischen Formulierung des Hamiltonians bis zur Berechnung dieses Grundzustands auf einem Quantencomputer ist es allerdings ein weiter Weg: Zunächst muss der elektronische Hamiltonian in eine Form gebracht werden, die sich mathematisch im Fock-Raum ausdrücken lässt. Anschließend wird er in eine Darstellung übersetzt, die sich mit Qubits verarbeiten lässt – typischerweise als Summe von Pauli-Matrizen. Erst dann können Algorithmen wie der Variational Quantum Eigensolver (VQE) oder die Quantum Phase Estimation (QPE) eingesetzt werden, um den Grundzustand zu bestimmen.
Kapitel 1 – Das chemische Problem am Beispiel Wasser
Ein Molekül besteht aus mehreren Atomen, die durch chemische Bindungen zusammengehalten werden. Jedes Atom setzt sich aus einem positiv geladenen Kern (Protonen und Neutronen) und einer Hülle aus negativ geladenen Elektronen zusammen. Die Elektronen sind nicht einfach beliebig um die Kerne verteilt, sondern besetzen bestimmte, quantenmechanisch erlaubte Zustände – die Atomorbitale.
Chemische Bindungen entstehen, wenn die Elektronenhüllen benachbarter Atome so wechselwirken, dass neue gemeinsame Zustände entstehen, die das Gesamtsystem energetisch stabiler machen. Im einfachsten Fall – der kovalenten Bindung – teilen sich zwei Atome Elektronenpaare, um stabile Elektronenkonfigurationen zu erreichen.
Das Wassermolekül (H₂O) ist ein Paradebeispiel dafür: Es besteht aus einem Sauerstoffatom und zwei Wasserstoffatomen. Addiert man alle Elektronen, so kommt man auf insgesamt zehn – acht vom Sauerstoff und jeweils eines von den beiden Wasserstoffen. Zwei dieser Elektronen werden für jede O–H-Bindung gemeinsam genutzt. Die übrigen Elektronen des Sauerstoffs bleiben an diesem gebunden und prägen die geometrische Form des Moleküls.
Die räumliche Struktur von Wasser ist nicht linear, sondern gewinkelt, mit einem Bindungswinkel von etwa 104,5 Grad. Diese Form ist kein Zufall: Sie ergibt sich aus der gegenseitigen Abstoßung der Elektronenpaare um den Sauerstoffkern und ist ein direktes Resultat der zugrunde liegenden quantenmechanischen Struktur.
Im nächsten Abschnitt betrachten wir genauer, wie man diese Elektronenstruktur beschreibt – mit dem Konzept der Orbitale, den quantenmechanischen „Wohnorten“ der Elektronen, und wie diese beim Sauerstoff und Wasserstoff aussehen. Erst auf dieser Grundlage wird verständlich, wie sich Bindungen und nichtbindende Elektronenpaare im Wassermolekül anordnen.
1.1 Orbitale und Elektronenstruktur im Wassermolekül
Elektronen in einem Atom halten sich nicht irgendwo im Raum auf, sondern in klar definierten quantenmechanischen Zuständen, den Atomorbitalen. Jedes Orbital ist durch eine bestimmte Energie und eine charakteristische räumliche Form gekennzeichnet. Die Form wird durch die Lösung der Schrödingergleichung für das Elektron im Coulomb-Potential des Atomkerns bestimmt.
Atomorbitale: Schalen und Formen
Die Orbitale sind in Schalen (Energieniveaus) angeordnet, die durch die Hauptquantenzahl $n$ bezeichnet werden, und innerhalb jeder Schale in Unterschalen mit unterschiedlichen Drehimpulsquantenzahlen $l$:
- s-Orbitale ($l=0$): kugelförmig
- p-Orbitale ($l=1$): hantelförmig, in drei Raumrichtungen ($p_x, p_y, p_z$)
- (Für größere Atome gibt es auch $d$- und $f$-Orbitale, die bei Wasser keine Rolle spielen.)
Jedes Orbital kann gemäß dem Pauli-Prinzip höchstens zwei Elektronen aufnehmen, die sich im Spin unterscheiden (ein Spin-up, ein Spin-down).
Sauerstoff und Wasserstoff im isolierten Zustand
- Sauerstoff (Kernladungszahl $Z=8$) besitzt die Elektronenkonfiguration$1s^2 \; 2s^2 \; 2p^4$ Die 1s-Elektronen sitzen kernnah und nehmen an chemischen Bindungen praktisch nicht teil.
Die Valenzschale besteht aus dem 2s-Orbital und den drei 2p-Orbitalen. In Summe befinden sich dort 6 Elektronen. - Wasserstoff ($Z=1$) hat nur ein 1s-Orbital, das mit einem Elektron besetzt ist.
Elektronenkonfiguration des Sauerstoffatoms
Sauerstoff hat acht Elektronen. Die Elektronenkonfiguration im Grundzustand lautet:
$1s^2 \; 2s^2 \; 2p^4$
- 1s-Orbital: voll besetzt (2 Elektronen), kernnah, chemisch inaktiv.
- 2s-Orbital: voll besetzt (2 Elektronen) → ein nichtbindendes Elektronenpaar in der Valenzschale.
- 2p-Orbitale: drei entartete Orbitale ($p_x, p_y, p_z$) für insgesamt 4 Elektronen.
- Nach der Hundschen Regel: Erst jedes p-Orbital einfach besetzen (3 Elektronen), dann wird eines davon mit einem zweiten Elektron aufgefüllt.
- Ergebnis: Eines der Orbitale (z. B. $p_x$) doppelt besetzt → Lone Pair; die beiden anderen ($p_y, p_z$) einfach besetzt → reaktive Orbitale.
Von Atom- zu Molekülorbitalen
Wenn Atome ein Molekül bilden, überlappen ihre Atomorbitale und bilden Molekülorbitale. Dabei können zwei Typen entstehen:
- Bindende Molekülorbitale: Energie niedriger als in den getrennten Atomen → stabilisieren die Bindung.
- Antibindende Molekülorbitale: Energie höher → destabilisieren, bleiben im Grundzustand meist unbesetzt.
Jedes Molekülorbital kann, wie ein Atomorbital, maximal zwei Elektronen enthalten.
Orbitale im Wassermolekül
Im Wassermolekül ergeben sich folgende wesentliche Molekülorbitale (in aufsteigender Energie):
- Kernnahe Orbitale: Sauerstoff-1s (voll besetzt, chemisch inaktiv).
- Bindende σ-Orbitale zwischen Sauerstoff und den beiden Wasserstoffen: entstehen aus Überlappung der H-1s-Orbitale mit passenden O-2p- bzw. O-2s-Kombinationen.
- Nichtbindende Orbitale (Lone Pairs): zwei der Sauerstoff-2p-Orbitale bleiben vollständig besetzt und nehmen nicht an Bindungen teil.
- Antibindende σ-Orbitale*: energetisch höher, im Grundzustand unbesetzt.
Besetzung im Grundzustand
Die zehn Elektronen des Wassermoleküls verteilen sich nach dem Aufbauprinzip:
- Jeweils zwei Elektronen in den energieärmsten Orbitalen, unter Beachtung des Pauli-Prinzips.
- Ergebnis:
- 1 Paar im O-1s (kernnah)
- 1 Paar im nicht-bindenden Orbital aus O-2s
- 1 Paar im nichtbindenden Orbital aus O-2p_x
- 2 Paare in den beiden bindenden σ-Orbitalen (O–H)
Diese Anordnung erklärt sowohl die Bindungseigenschaften als auch die Molekülgeometrie: Die vier Elektronenpaare um den Sauerstoff (zwei bindend, zwei nichtbindend) ordnen sich tetraedrisch an, wobei die Lone Pairs den Bindungswinkel auf etwa 104,5° drücken.
1.2 Born–Oppenheimer-Näherung und der elektronische Hamiltonian
Die Elektronenstruktur eines Moleküls bestimmt letztlich alle seine chemischen und physikalischen Eigenschaften. Um diese Struktur zu berechnen, müssten wir eigentlich die vollständige Schrödingergleichung für alle Teilchen im Molekül lösen – also für alle Elektronen und alle Atomkerne. Dieses Gesamtproblem ist jedoch extrem komplex, weil sich Elektronen und Kerne ständig gegenseitig beeinflussen und bewegen.
Trennung von Elektronen und Kernen
Ein wichtiger vereinfachender Schritt ist die Born–Oppenheimer-Näherung. Sie beruht auf der Beobachtung, dass Atomkerne etwa 2000-mal schwerer sind als Elektronen. Dadurch bewegen sich die Kerne wesentlich langsamer. Aus Sicht der Elektronen wirken die Kerne daher wie nahezu feststehende Punktladungen. Umgekehrt passen sich die Elektronen praktisch sofort an jede kleine Bewegung der Kerne an.
In dieser Näherung können wir die Bewegung der Kerne und Elektronen getrennt behandeln:
- Zunächst nehmen wir eine feste Anordnung der Kerne an (z. B. den Bindungswinkel und die Bindungslängen im Wassermolekül).
- Dann lösen wir die Schrödingergleichung nur für die Elektronen im Coulomb-Potential dieser feststehenden Kerne.
Der elektronische Hamiltonian
Unter dieser Annahme lässt sich der elektronische Hamiltonian für ein Molekül wie Wasser schreiben als:
$$\hat{H}_{\mathrm{el}} = - \frac12 \sum_{i=1}^{N_e} \nabla_i^2 - \sum_{i=1}^{N_e} \sum_{A=1}^{N_\mathrm{Kern}} \frac{Z_A}{|\mathbf{r}_i - \mathbf{R}_A|} + \sum_{i<j} \frac{1}{|\mathbf{r}_i - \mathbf{r}_j|}$$
wobei:
- $N_e$ = Zahl der Elektronen (beim Wassermolekül $N_e=10$),
- $N_\mathrm{Kern}$ = Zahl der Atomkerne (beim Wassermolekül 3),
- $Z_A$ = Kernladungszahl des Atoms $A$ (8 für O, 1 für H),
- $\mathbf{R}_A$ = feste Position des Atomkerns $A$,
- $\mathbf{r}_i$ = Position des Elektrons $i$.
Die drei Terme haben klare physikalische Bedeutungen:
- Kinetische Energie der Elektronen ($-\frac{1}{2}\nabla^2$).
- Anziehung zwischen Elektronen und Kernen ($-\frac{Z_A}{r}$-Terme).
- Abstoßung zwischen Elektronen ($\frac{1}{r}$-Terme).
Das Grundzustandsproblem
Für eine gegebene Kerngeometrie (im Wasser: O–H-Abstand ≈ 0,96 Å, Bindungswinkel ≈ 104,5°) beschreibt dieser Hamiltonian die gesamte elektronische Physik des Moleküls.
Unsere Aufgabe ist es, den Grundzustand zu finden:
$$\hat{H}_{\mathrm{el}} \, \Psi_0 = E_0 \, \Psi_0$$
mit:
- $\Psi_0$ = Grundzustandswellenfunktion aller Elektronen,
- $E_0$ = Grundzustandsenergie.
Dieser Schritt ist der Schlüssel zur Vorhersage chemischer Eigenschaften: Bindungsenergien, Reaktivität, Spektren und vieles mehr hängen direkt von $\Psi_0$ und $E_0$ ab.
Ausblick
Direkt mit dieser kontinuierlichen Form des Hamiltonians zu arbeiten, ist praktisch unmöglich – schon für ein Molekül wie Wasser würde das eine Wellenfunktion $\Psi(\mathbf{r}_1, \dots, \mathbf{r}_{10})$ im 30-dimensionalen Raum erfordern.
Im nächsten Schritt werden wir das Problem deshalb in eine diskrete Basis von Orbitalen projizieren. Das erlaubt uns, die Elektronenbewegung mit endlich vielen Variablen zu beschreiben – eine Voraussetzung dafür, dass das Problem auf einem Quantencomputer lösbar wird.
Kapitel 2 – In den Fock-Raum zur zweiten Quantisierung
In Abschnitt 1.2 haben wir den elektronischen Hamiltonian in einer Form geschrieben, die jede Teilchenkoordinate einzeln verfolgt. Diese „erste Quantisierung“ ist zwar mathematisch korrekt, wird aber schnell unübersichtlich – nicht nur aus Rechenaufwand, sondern auch aus konzeptionellen Gründen.
Vom Teilchenbild zum Besetzungsbild
In der ersten Quantisierung muss die Wellenfunktion $\Psi(\mathbf{r}_1, \dots, \mathbf{r}_N)$ nicht nur die Bewegung aller Elektronen gleichzeitig beschreiben, sondern auch antisymmetrisch sein: Vertauscht man zwei Elektronen, muss sich das Vorzeichen ändern.
Für Fermionen ist das eine Grundanforderung, die in der direkten Koordinatendarstellung mühsam zu erfüllen ist.
Die zweite Quantisierung bietet hier einen fundamentalen Perspektivwechsel:
- Wir nummerieren nicht mehr die Elektronen, sondern die Zustände, die sie einnehmen können: die (Spin-)Orbitale.
- Der Gesamtzustand wird nicht mehr als komplizierte Funktion der Elektronenkoordinaten beschrieben, sondern als Besetzungsvektor $|n_1, n_2, \dots, n_M\rangle$, der für jedes Orbital angibt, ob es besetzt ($n_p=1$) oder unbesetzt ($n_p=0$) ist.
Damit ist die Austauschsymmetrie automatisch eingebaut:
Das Pauli-Prinzip folgt direkt daraus, dass in einem Fermion-Orbital nur 0 oder 1 Elektron erlaubt ist.
Physikalische Motivation
Die zweite Quantisierung wurde nicht primär für numerische Chemieprobleme entwickelt, sondern aus der Notwendigkeit heraus, Quantenmechanik mit variabler Teilchenzahl und Teilchenerzeugung/-vernichtung zu beschreiben.
Das ist besonders wichtig:
- in der Quantenfeldtheorie (z. B. Photonen, Phononen, Elektronen in Festkörpern),
- bei Reaktionen, wo Elektronen zwischen Systemen ausgetauscht werden,
- bei kollektiven Anregungen, wo sich Teilchenzahlen lokal ändern.
Für Moleküle ist die Teilchenzahl zwar im Ganzen konstant, aber die Beschreibung mit Erzeugungs- und Vernichtungsoperatoren macht es einfach, Elektronen zwischen Orbitalen zu „verschieben“ – genau das passiert in den Termen des elektronischen Hamiltonians.
Vorteile für unser H₂O-Beispiel
Für Wasser im sogenannten STO-3G-Basissatz bedeutet die zweite Quantisierung:
- Wir arbeiten mit 14 Spinorbitalen statt mit 10 Elektronen in kontinuierlichen Koordinaten.
- Ein Zustand ist z. B.:
$|1\,1\,1\,1\,1\,1\,1\,1\,0\,0\,0\,0\,0\,0\rangle$
(1 = besetzt, 0 = unbesetzt) – im Grundzustand sind die acht niederenergetischen Orbitale voll besetzt, die übrigen leer.
- Der Hamiltonian lässt sich in einer kompakten Operatorform ausdrücken, die direkt für klassische und Quantencomputer nutzbar ist.
2.1 Basisnäherung mit STO-3G und Übergang von AO zu MO
Die Schrödingergleichung für ein Molekül wie Wasser zu lösen, erfordert die Kenntnis der Elektronenwellenfunktionen. In kontinuierlicher Form sind diese Funktionen extrem komplex. Statt sie frei im unendlichen Funktionsraum zu suchen, beschränken wir uns auf eine endliche Menge bekannter Basisfunktionen und suchen die Lösung als Linearkombination dieser Basisfunktionen, d.h. wir nähern die eigentlichen Orbitale mit einem Ansatz für Basisfunktionen an.
STO-3G – ein minimaler Basissatz
„STO-3G“ ist einer der einfachsten und am weitesten verbreiteten minimalen Basissätze in der Quantenchemie:
- STO = Slater-type orbital – eine Funktion, die den radialen Verlauf eines echten Atomorbitals nach Slater beschreibt.
- 3G = diese Slater-Funktion wird durch eine Linearkombination von drei Gauß-Funktionen angenähert. Gauß-Funktionen sind rechnerisch günstiger, weil Integrale mit ihnen analytisch lösbar sind.
„Minimal“ bedeutet:
Für jedes besetzte Atomorbital im Grundzustand des isolierten Atoms gibt es genau eine Basisfunktion im Satz.
Für H₂O:
- Sauerstoff: $1s, 2s, 2p_x, 2p_y, 2p_z$ → 5 Atomorbital-Basisfunktionen
- Wasserstoff: nur 1s, je ein Atomorbital pro Atom → 2 Atomorbital-Basisfunktionen
Insgesamt somit 7 verschiedene Atomorbitale.
Von Atom- zu Molekülorbitalen
Diese 7 Atomorbital-Basisfunktionen sind lokal an den Atomkernen zentriert.
Wenn die Atome zu einem Molekül zusammentreten, mischen sich die Atomorbitale zu Molekülorbitalen (MO):
$$\psi_j(\mathbf{r}) = \sum_{\mu=1}^7 C_{\mu j} \, \chi_\mu(\mathbf{r})$$
- $\chi_\mu$: Atomorbital-Basisfunktionen (STO-3G)
- $C_{\mu j}$: Koeffizienten, die in der Hartree–Fock-Rechnung ermittelt werden
Das Ergebnis:
- Genau 7 orthogonale Molekülorbitale, weil wir in diesem Ansatz mit 7 Atomorbitalen gestartet sind.
- Diese MOs sind delokalisiert über das gesamte Molekül und enthalten Beiträge von mehreren Atomorbitalen.
Beispiel: Das σ-Molekülorbital einer O–H-Bindung enthält Anteile vom O-2p-Orbital und vom H-1s-Orbital.
Besetzte und unbesetzte Molekülorbitale
- Wasser hat $N_e = 10$ Elektronen → 5 Molekülorbitale sind voll besetzt (jeweils 2 Elektronen mit entgegengesetztem Spin).
- Die übrigen 2 Molekülorbitale sind unbesetzt (virtuelle Orbitale) und liegen energetisch höher.
Diese unbesetzten Orbitale sind für die exakte Beschreibung des Grundzustands wichtig: Elektronen können sich virtuell in diese Orbitale anregen und so zur Korrelationsenergie beitragen.
2.2 Die Matrixelemente des Hamiltonians: Ein- und Zwei-Elektronen-Integrale
Sobald wir uns für eine endliche Basis entschieden haben – im Fall von $H_2O$ die 7 Atomorbitale des STO-3G-Satzes – können wir den elektronischen Hamiltonian auf diese Basis projizieren.
Dabei entstehen Matrixelemente, die beschreiben, wie die Basisfunktionen miteinander durch kinetische und potentielle Energie gekoppelt sind.
Ein-Elektronen-Integrale $h_{\mu\nu}$
In der Atomorbital-Basis $\{\chi_\mu\}$ sind die Ein-Elektronen-Integrale definiert als:
$$h_{\mu\nu} = \int \chi_\mu^*(\mathbf{r}) \left( -\frac12 \nabla^2 - \sum_A \frac{Z_A}{|\mathbf{r} - \mathbf{R}_A|} \right) \chi_\nu(\mathbf{r}) \, d\mathbf{r}$$
Sie enthalten:
- Kinetische Energie der Elektronen
- Elektron–Kern-Anziehung für alle Kerne $A$
Physikalisch: $h_{\mu\nu}$ sagt, wie stark ein Elektron in Atomorbital $\mu$ mit einem in Atomorbital $\nu$ durch diese Einteilchen-Beiträge gekoppelt ist.
Zwei-Elektronen-Integrale $(\mu\nu|\lambda\sigma)$
Die Elektron–Elektron-Abstoßung wird durch Viertelindex-Integrale beschrieben:
$$(\mu\nu|\lambda\sigma) = \iint \frac{ \chi_\mu^*(\mathbf{r}_1) \chi_\nu(\mathbf{r}_1) \chi_\lambda^*(\mathbf{r}_2) \chi_\sigma(\mathbf{r}_2) }{ |\mathbf{r}_1 - \mathbf{r}_2|} \, d\mathbf{r}_1 \, d\mathbf{r}_2$$
Physikalisch: Sie messen, wie stark ein Elektron im Atomorbital $\mu–\nu$-Paar ein anderes Elektron im Atomorbital $\lambda–\sigma$-Paar abstößt.
Von Atomorbitalen zu Molekülorbitalen
Die Molekülorbitale $\psi_p$ sind Linearkombinationen der Atomorbitale:
$\psi_p = \sum_{\mu=1}^K C_{\mu p} \, \chi_\mu$
Die HF-Koeffizienten $pC_{\mu p}$ ergeben sich aus den Roothaan–Hall-Gleichungen (siehe Hartree–Fock).
Mit diesen Koeffizienten transformieren wir die Integrale in die MO-Basis:
Ein-Elektronen-Integrale:
$$h_{pq} = \sum_{\mu,\nu} C_{\mu p}^* \, h_{\mu\nu} \, C_{\nu q}$$
Zwei-Elektronen-Integrale:
$$g_{pqrs} = \sum_{\mu,\nu,\lambda,\sigma} C_{\mu p}^* \, C_{\nu q}^* \, (\mu\nu|\lambda\sigma) \, C_{\lambda r} \, C_{\sigma s}$$
Was wir jetzt haben
Nach dieser Transformation:
- Indizes $p,q,r,s$ laufen über alle 7 Molekülorbitale (14 Spinorbitale).
- $h_{pq}$ und $g_{pqrs}$ sind die vollständige Eingabe für den Hamiltonian in der zweiten Quantisierung.
- Die Struktur des Hamiltonians ist immer gleich – nur die Integrale hängen vom Molekül, der Geometrie und der Basis ab.
Physikalische Interpretation im H₂O-Beispiel
- $h_{pp}$ (Diagonalterm) = „Energiebeitrag“, wenn ein Elektron allein im Molekülorbital $p$ sitzt.
- $h_{pq}$ mit $p\neq$ Kopplung zwischen verschiedenen Molekülorbitalen.
- $g_{ppqq}$ = klassische Coulomb-Abstoßung zwischen Elektronen in $p$ und $q$.
- $g_{pqqp}$ = Austauschwechselwirkung (Pauli-Effekt).
2.3 Der Hamiltonian in Leiteroperator-Form (Fock-Raum)
Nachdem wir in 2.2 die Ein- und Zwei-Elektronen-Integrale $h_{pq}$ und $g_{pqrs}$ in der Molekülorbitalbasis bestimmt haben, können wir den elektronischen Hamiltonian nun in der Sprache der zweiten Quantisierung formulieren.
Er lautet:
$$\hat{H} = \sum_{pq} h_{pq} a_p^\dagger a_q + \frac12 \sum_{pqrs} g_{pqrs} a_p^\dagger a_q^\dagger a_r a_s$$
Hierbei gilt:
- $a_p^\dagger$: Erzeugungsoperator für ein Elektron im Spinorbital $p$
- $a_p$: Vernichtungsoperator für ein Elektron im Spinorbital $p$
- $p,q,r,s$ laufen über alle Spinorbitale in der gewählten Basis (für H₂O/STO-3G: 14 Stück)
Bedeutung der beiden Terme
- Ein-Elektronen-Teil $\sum_{pq} h_{pq} \, a_p^\dagger a_q$
Beschreibt:- Kinetische Energie eines Elektrons im Orbital $p$
- Anziehung des Elektrons zu allen Kernen
- „Hopping“ zwischen Orbitalen (wenn $p\neq q$), also die Möglichkeit, dass ein Elektron von einem Orbital in ein anderes wechselt
- Zwei-Elektronen-Teil $\frac{1}{2} \sum_{pqrs} g_{pqrs} \, a_p^\dagger a_q^\dagger a_r a_s$
Beschreibt:- Klassische Coulomb-Abstoßung zwischen zwei Elektronen
- Austauschwechselwirkungen (Pauli-Effekt)
- Prozesse, bei denen zwei Elektronen gleichzeitig ihre Orbitale wechseln
Warum hier keine Information verloren geht
Bis zu diesem Punkt ist die Formulierung exakt – unter der einzigen Annahme, dass die Elektronenwellenfunktion vollständig in unserer gewählten Basis darstellbar ist.
Das heißt:
- Die einzige physikalische Information, die wir abgeschnitten haben, stammt von der Wahl des STO-3G-Basissatzes (7 räumliche Orbitale für H₂O).
- Innerhalb dieses beschränkten Raums sind die Integrale $h_{pq}$ und $g_{pqrs}$ vollständig und erfassen alle Wechselwirkungen, die in dieser Basis möglich sind.
- Die Leiteroperator-Form ist also keine Näherung, sondern nur eine andere Darstellung desselben Problems.
Kernbotschaft
Der Hamiltonian im Fock-Raum ist die vollständige quantenmechanische Beschreibung unseres Moleküls innerhalb der gewählten Basis:
- Er sagt, wie sich Elektronen in den möglichen Orbitalzuständen bewegen und gegenseitig beeinflussen.
- Jede Eigenschaft des Systems (Energien, Dichten, Spektren) lässt sich daraus prinzipiell exakt berechnen.
- Er ist universell: dieselbe Form wird für jedes Molekül und jeden Basissatz benutzt – nur die Zahlen $h_{pq}$ und $g_{pqrs}$ ändern sich.
Kapitel 3 Vom Fermion-Hamiltonian zum Qubit-Hamiltonian
Der Hamiltonian, den wir in Abschnitt 2.3 in Leiteroperator-Form aufgeschrieben haben, beschreibt Elektronen, die sich in Molekülorbitalen bewegen und miteinander wechselwirken. Er arbeitet mit Erzeugungs- und Vernichtungsoperatoren $a_p^\dagger$ und $a_p$, die die Regeln für Fermionen – insbesondere das Pauli-Prinzip – automatisch erfüllen. Ein Quantencomputer kann mit solchen Operatoren allerdings nicht direkt umgehen, denn seine elementaren Bausteine sind Qubits, die Zustände wie $|0\rangle$ oder $|1\rangle$ (und deren Überlagerungen) annehmen. Um den Hamiltonian ausführen zu können, müssen wir ihn daher in eine Form bringen, die nur noch mit Qubit-Operatoren, also Kombinationen aus Pauli-Matrizen $X$, $Y$, $Z$ und der Einheitsmatrix $I$, arbeitet.
Das Problem dabei ist, dass Fermionoperatoren nicht wie Qubit-Operatoren kommutieren, sondern antikommutieren. Diese Antikommutationsrelationen sind entscheidend, weil sie die richtige Vorzeichenstruktur der Wellenfunktion beim Vertauschen zweier Elektronen sicherstellen. Die Übersetzung muss also eine Abbildung sein, die die Fermionalgebra korrekt auf Qubit-Operatoren abbildet. Hier kommen die sogenannten Fermion-zu-Qubit-Mappings ins Spiel.
Das einfachste dieser Mappings ist die Jordan–Wigner-Transformation. Sie ordnet jedem Spinorbital genau ein Qubit zu und interpretiert den Qubit-Zustand $|1\rangle$ als „Orbital besetzt“ und $|0\rangle$ als „Orbital leer“. Damit die richtigen Vorzeichen aus der Fermionalgebra erhalten bleiben, versieht sie jedes Erzeugungs- oder Vernichtungsoperatorpaar mit einer Kette von $Z$-Operatoren über alle Qubits mit niedrigeren Indizes. Alternativ kann man auch das Bravyi–Kitaev-Mapping verwenden, das dieselbe Information speichert, aber kürzere $Z$-Ketten benötigt und bei manchen Problemen effizienter ist.
Wenden wir das Jordan–Wigner-Mapping auf Wasser im STO-3G-Basissatz an, so erhalten wir aus den 14 Spinorbitalen zunächst 14 Qubits. Mithilfe von Symmetrien – etwa der Erhaltung der Elektronenzahl oder Spinprojektion – lässt sich diese Zahl oft deutlich reduzieren, im Fall von $H_2O$ typischerweise auf acht oder weniger Qubits. Jeder Term des Fermion-Hamiltonians, ob er nun nur einen Elektronensprung zwischen zwei Orbitalen beschreibt oder die gleichzeitige Bewegung zweier Elektronen, wird zu einem Pauli-String, also einem Produkt von Pauli-Matrizen auf den jeweiligen Qubits. Der vollständige Hamiltonian ist dann eine gewichtete Summe solcher Strings:
$$\hat{H} = \sum_k \alpha_k \, P_k, \quad P_k \in \{I, X, Y, Z\}^{\otimes n}$$
Die reellen Koeffizienten $\alpha_k$ stammen direkt aus den Integralen $h_{pq}$ und $g_{pqrs}$, die wir in Abschnitt 2.2 bestimmt haben.
In dieser Form ist der Hamiltonian direkt auf einem Quantencomputer nutzbar. Jeder Pauli-String lässt sich durch eine Sequenz von Quantengattern implementieren, und seine Erwartungswerte kann man messen. Die Gesamtenergie erhält man als Summe dieser Messergebnisse, gewichtet mit den jeweiligen Koeffizienten $\alpha_k$. So können Variationsverfahren wie der Variational Quantum Eigensolver (VQE) oder exakte Verfahren wie Quantum Phase Estimation (QPE) die Grundzustandsenergie des Moleküls ermitteln.
Wichtig ist: Auch dieser Schritt ändert nichts an der zugrunde liegenden Physik. Der Qubit-Hamiltonian ist inhaltlich identisch zum Fermion-Hamiltonian im Fock-Raum; er ist lediglich in eine andere Sprache übersetzt. Der einzige Informationsverlust, der im gesamten Ablauf bisher aufgetreten ist, stammt weiterhin aus der bewussten Wahl des endlichen Basissatzes (hier: STO-3G).
3.1 Jordan–Wigner am Beispiel H₂O/STO-3G
Wir arbeiten in der Molekülorbital-Basis aus 2.1/2.2: Für H₂O/STO-3G gibt es 7 räumliche Molekülorbitale → 14 Spinorbitale. Sortiere die 14 Spin-Molekülorbitale $(\alpha/\beta)$ nach Energie und nummeriere sie $p=0,\dots,13$. Im Jordan–Wigner (JW) bekommt jedes Spinorbital genau ein Qubit.
Die JW-Abbildung für die Fermion-Operatoren lautet (mit $\sigma^\pm=\frac{1}{2}(X\pm iY)$):
$$a_j^\dagger = \biggl(\prod_{k=0}^{j-1} Z_k\biggr)\,\sigma_j^-,\qquad a_j = \biggl(\prod_{k=0}^{j-1} Z_k\biggr)\,\sigma_j^+.$$
Die Z-Kette $\prod_{k<j} Z_k$ sorgt für die richtigen Vorzeichen (Antisymmetrie) beim Vertauschen von Fermionen.
Beispiel A: Zahloperator (Besetzung eines Orbitals)
Der Besetzer $n_p = a_p^\dagger a_p$ wird zu
$n_p \;\mapsto\; \frac{1}{2}\,(I - Z_p)$.
Interpretation: $|1\rangle$ (besetzt) entspricht $Z_p=-1$, $|0\rangle$ (leer) $Z_p=+1$.
Konkretes Mini-Beispiel: Für das (fiktiv) vierte Spin-MO $p=3$:
$n_3 \;\mapsto\; \tfrac{1}{2}\,(I - Z_3)$.
Beispiel B: Ein-Elektronen-„Hopping“ $a_p^\dagger a_q + a_q^\dagger a_p$
Für $p\neq q$ (ohne Beschränkung $p>q$) gilt unter JW:
$$a_p^\dagger a_q + a_q^\dagger a_p \;\mapsto\; \tfrac{1}{2}\Bigl( X_p\,\underbrace{Z_{p-1}\cdots Z_{q+1}}_{\text{Z-Kette}}\,X_q \;+\; Y_p\,\underbrace{Z_{p-1}\cdots Z_{q+1}}_{\text{Z-Kette}}\,Y_q \Bigr).$$
Konkretes Mini-Beispiel: Koppel das Spin-MO $q=2$ mit $p=5$:
$$a_5^\dagger a_2 + a_2^\dagger a_5 \;\mapsto\; \tfrac{1}{2}\Bigl( X_5\,Z_4\,Z_3\,X_2 \;+\; Y_5\,Z_4\,Z_3\,Y_2 \Bigr).$$
Diese Form taucht direkt in $\sum_{pq} h_{pq} a_p^\dagger a_q$ (und der hermiteschen Ergänzung) auf.
Beispiel C: „Coulomb“ als Zahl-Zahl-Term $a_p^\dagger a_p\,a_q^\dagger a_q$
Ein Teil der Zwei-Elektronen-Begriffe ist schlicht das Produkt zweier Besetzer:
$$n_p n_q = a_p^\dagger a_p\,a_q^\dagger a_q \;\mapsto\; \tfrac{1}{4}\bigl(I - Z_p - Z_q + Z_p Z_q\bigr).$$
Konkretes Mini-Beispiel: Für $p=3, q=9$:
$$n_3 n_9 \;\mapsto\; \tfrac{1}{4}\bigl(I - Z_3 - Z_9 + Z_3 Z_9\bigr).$$
Beispiel D (ein Tick anspruchsvoller): Austausch-/Transferterm $a_p^\dagger a_q^\dagger a_r a_s + \text{h.c.}$
Für $p,q,r,s$ paarweise verschieden liefert JW eine Summe von Pauli-Strings mit $X$ und $Y$ an den beteiligten Positionen und Z-Ketten zwischen den jeweiligen Indizes. Ein typischer Fall (z. B. $p>q>r>s$) zerfällt in 8 Strings wie
$$\frac{1}{8}\Bigl( X_p X_q X_r X_s \pm X_p X_q Y_r Y_s \pm \cdots \Bigr) \times(\text{passende Z-Ketten}).$$
Praktisch wird das vom Chemie-Compiler (z. B. in PySCF/Qiskit/PennyLane) automatisch erzeugt; wichtig ist das Muster: Mehr Körper → mehr Strings, stets mit Z-Ketten zwischen den Indizes.
Kapitel 4 - Bestimmung des Grundzustands mit dem Variational Quantum Eigensolver (VQE)
Am Ende aller Vorbereitungen – von der Wahl eines Basissatzes über die Hartree–Fock-Berechnung bis hin zur Abbildung in einen Qubit-Hamiltonian – steht eine zentrale Aufgabe: Finde den Grundzustand dieses Hamiltonians. In der Quantenchemie ist die Energie des Grundzustands ein Schlüsselwert, denn aus ihr lassen sich Bindungsenergien, Reaktionsenthalpien und viele weitere molekulare Eigenschaften ableiten.
Klassisch lässt sich diese Aufgabe prinzipiell lösen, indem man die niedrigsten Eigenwerte einer sehr großen Matrix bestimmt. Der Aufwand dafür wächst jedoch exponentiell mit der Anzahl der Orbitale und Elektronen, wenn man nicht auf Näherungen wie Hartree–Fock oder DFT zurückgreifen will. Für Moleküle jenseits von wenigen Atomen wird eine exakte Behandlung klassisch praktisch unmöglich.
Ein Quantencomputer bietet hier einen natürlichen Vorteil: Er kann Zustände in einem hochdimensionalen Hilbertraum direkt physikalisch darstellen. Das heißt, er kann eine Superposition aus allen möglichen Elektronenkonfigurationen mit exponentiell weniger physikalischen Ressourcen erzeugen, als es auf einem klassischen Rechner nötig wäre. Der Hamiltonian, den wir in Pauli-String-Form berechnet haben, kann auf den Qubits implementiert werden, und der Quantencomputer kann daraus Informationen über Energien und Zustände gewinnen.
Das Grundprinzip ist einfach: Wenn wir einen Qubit-Zustand $|\psi\rangle$ präparieren und den Erwartungswert $\langle \psi | \hat{H} | \psi \rangle$ messen, erhalten wir die mittlere Energie dieses Zustands. Das Variationsprinzip garantiert, dass diese Energie immer größer oder gleich der wahren Grundzustandsenergie ist. Je näher $|\psi\rangle$ dem tatsächlichen Grundzustand kommt, desto tiefer wird die gemessene Energie.
Die Herausforderung besteht also darin, einen Quantenalgorithmus zu entwickeln, der $|\psi\rangle$ systematisch so verändert, dass seine Energie minimiert wird. Auf heutigen, fehlerbehafteten Quantencomputern geschieht dies oft mit hybriden Variationsverfahren, bei denen der Quantencomputer für die Zustandspräparation und -messung genutzt wird, während ein klassischer Computer die Optimierung der Steuerparameter übernimmt.
4.1 Hybride Variationsalgorithmen: Ansatzschaltkreis, Messung und klassische Optimierung
Auf einem heutigen Quantencomputer – mit begrenzter Qubit-Anzahl und nicht vernachlässigbarer Fehlerrate – bieten sich hybride Variationsalgorithmen an. Die Grundidee: Wir wählen eine Familie parametrisierter Quantenzustände, messen deren Energie, und passen die Parameter mithilfe eines klassischen Optimierers so an, dass diese Energie minimal wird.
Das Verfahren nutzt damit beide Welten optimal:
- Quantencomputer: Erzeugt verschränkte Vielteilchenzustände und misst Erwartungswerte komplexer Observablen (hier: des Hamiltonians).
- Klassischer Computer: Führt die nichttriviale Optimierung im Parameterraum durch.
1. Der parameterabhängige Ansatzschaltkreis
Wir beginnen mit einer geeigneten Startkonfiguration – oft der Hartree–Fock-Zustand, der auf dem Quantencomputer einfach als Bitstring $|1 \dots 1 0 \dots 0\rangle$ implementiert werden kann. Darauf folgt eine parametrisierte Quantenschaltung $U(\boldsymbol{\theta})$, die diesen Zustand in eine Superposition transformiert:
$$|\psi(\boldsymbol{\theta})\rangle = U(\boldsymbol{\theta})\,|\text{HF}\rangle.$$
Die Parameter $\boldsymbol{\theta}$ steuern Rotationswinkel und Entanglement-Gatter im Schaltkreis. In der Quantenchemie sind häufig verwendete Anätze:
- Unitary Coupled Cluster (z. B. UCCSD): chemisch motiviert, basiert direkt auf den Anregungsoperatoren aus dem Fock-Raum.
- Hardware-Efficient Ansatz: tiefenoptimiert für die jeweilige Hardware, mit generischen Rotations- und CNOT-Layern.
2. Messung der Energie
Der Qubit-Hamiltonian $\hat{H} = \sum_k \alpha_k P_k$ ist eine Summe von Pauli-Strings $P_k$.
Für einen gegebenen Parametervektor $\boldsymbol{\theta}$ misst man für jeden Term den Erwartungswert:
$$\langle P_k \rangle_{\boldsymbol{\theta}} = \langle \psi(\boldsymbol{\theta}) | P_k | \psi(\boldsymbol{\theta}) \rangle.$$
Die Gesamtenergie ergibt sich dann aus:
$$E(\boldsymbol{\theta}) = \sum_k \alpha_k \langle P_k \rangle_{\boldsymbol{\theta}}.$$
In der Praxis fasst man kommutierende Pauli-Strings zu Messgruppen zusammen, um die Zahl der notwendigen Schaltungen zu reduzieren.
3. Klassische Optimierung
Der klassische Optimierer erhält $E(\boldsymbol{\theta})$ als Eingabe und wählt neue Parameter $\boldsymbol{\theta}'$, um die Energie zu senken.
Für die Richtungsbestimmung benötigt er oft Gradienten $\partial E / \partial \theta_i$. Diese können mit der Parameter-Shift-Regel direkt auf dem Quantencomputer ermittelt werden:
$$\frac{\partial E}{\partial \theta_i} = \frac{E(\theta_i + \tfrac{\pi}{2}) - E(\theta_i - \tfrac{\pi}{2})}{2}.$$
Als Optimierer kann man z. B. Adam einsetzen – ein in der Machine-Learning-Community bewährter adaptiver Gradientenabstieg-Algorithmus, der Lernraten automatisch anpasst und so oft schneller konvergiert als einfache Verfahren.
4. Iteration bis zur Konvergenz
Dieser Zyklus aus:
- Parameter setzen,
- Zustand präparieren,
- Energie messen,
- Parameter anpassen,
wird so lange wiederholt, bis sich die Energie kaum noch verändert. Das resultierende $|\psi(\boldsymbol{\theta}^*)\rangle$ ist dann die beste Grundzustandsnäherung innerhalb der gewählten Ansatzklasse.
Hybride Variationsalgorithmen wie der VQE sind maßgeschneidert für heutige NISQ-Hardware. Sie umgehen die Notwendigkeit tiefer, fehleranfälliger Quantenalgorithmen, indem sie den Quantencomputer nur für den Teil einsetzen, in dem er dem klassischen Rechner überlegen ist – die realistische Darstellung hochverschänkter Vielteilchenzustände.
4.2 Andere Verfahren zur Bestimmung eines Grundzustands
Obwohl der Variational Quantum Eigensolver (VQE) heute die wohl populärste Methode zur Grundzustandsbestimmung auf NISQ-Hardware ist, existieren auch andere Ansätze. Sie unterscheiden sich in der Art und Weise, wie der Zielzustand präpariert und wie die Energie ermittelt wird. Drei relevante Beispiele sind das Quantum Approximate Optimization Algorithm (QAOA), Digitized Counterdiabatic Quantum Optimization (DCQO) – auch bekannt als „Shortcuts to Adiabaticity“ – sowie die Quantum Phase Estimation (QPE).
Quantum Approximate Optimization Algorithm (QAOA)
QAOA wurde ursprünglich zur Lösung kombinatorischer Optimierungsprobleme entwickelt, lässt sich aber auch auf die Suche nach dem Grundzustand eines Hamiltonians übertragen.
- Idee: Wechsele wiederholt zwischen der Zeitentwicklung unter einem Problem-Hamiltonian $\hat{H}_P$ (dessen Grundzustand gesucht wird) und einem Misch-Hamiltonian $\hat{H}_M$ (typischerweise ein Summe von $X$-Operatoren), jeweils mit variablen Laufzeiten $\gamma_i$ und $\beta_i$.
- Parametrisierung: Der Algorithmus hat die Parameter $\{\gamma_i, \beta_i\}_{i=1}^p$, wobei $p$ die „Tiefe“ des QAOA angibt.
- Vorteil: Sehr strukturierte, flache Schaltkreise; gut an Hardware anpassbar.
- Nachteil: Nicht primär für hochkorrelierte Molekülzustände entwickelt; chemische Präzision erfordert oft große Tiefe $p$.
Digitized Counterdiabatic Quantum Optimization (DCQO / STA)
DCQO basiert auf der adiabatischen Quantenrechnung: Ein System bleibt im Grundzustand, wenn der Hamiltonian sehr langsam von einer leicht präparierbaren Anfangsform in den Ziel-Hamiltonian überführt wird.
- Problem: Eine rein adiabatische Entwicklung erfordert oft sehr lange Laufzeiten, um nicht in angeregte Zustände überzugehen.
- Lösung: Gegenadiabatische (counterdiabatic) Terme werden hinzugefügt, um Übergänge zu unterdrücken.
- Digitalisierung: Die kontinuierliche Entwicklung wird durch eine Sequenz diskreter Gatter approximiert, ähnlich wie bei Trotterisierung.
- Vorteil: Nutzt physikalische Dynamik, um nahe am Grundzustand zu bleiben.
- Nachteil: Kenntnis oder Approximation der gegenadiabatischen Terme ist oft aufwendig.
Quantum Phase Estimation (QPE)
QPE ist der „Goldstandard“ der Grundzustandsbestimmung auf einem fehlerfreien Quantencomputer.
- Idee: Wenn wir einen Eigenzustand $|\psi\rangle$ von $\hat{H}$ haben, dann führt die kontrollierte Zeitentwicklung $e^{-i\hat{H}t}$ zu einer Phasenverschiebung proportional zur Energie $E$. QPE misst diese Phase hochpräzise und liefert EEE direkt.
- Vorteil: Hohe Präzision, in der Theorie exakte Energie innerhalb der gewählten Basis.
- Nachteil: Benötigt tiefe Schaltkreise, viele kontrollierte Unitaries und gute Fehlerkorrektur; aktuell auf NISQ-Geräten kaum einsetzbar.
- Chemie-Bezug: Kombiniert oft mit adiabatischen Verfahren, um den Anfangszustand in die Nähe des Grundzustands zu bringen.
Vergleich zu VQE
- VQE: Flache Schaltkreise, robust gegen Rauschen, dafür Optimierung und Messkosten limitierend.
- QAOA: Strukturierter Ansatz, gut hardwareeffizient, aber oft weniger chemiespezifisch.
- DCQO: Dynamikbasiert, kann gute Zustände finden, erfordert aber Zusatzwissen über den Hamiltonian.
- QPE: Präzise, aber nur für künftige, fehlerkorrigierte Quantencomputer praktisch.
Kernbotschaft:
Es gibt keinen universellen „besten“ Algorithmus zur Grundzustandsbestimmung. Auf heutiger Hardware dominiert VQE, während QAOA und DCQO je nach Problemstruktur attraktive Alternativen bieten. QPE ist vor allem ein Ziel für die Ära fehlerkorrigierter Quantencomputer – dann jedoch voraussichtlich das Mittel der Wahl für hochpräzise Quantenchemie.
Kapitel 5 - Workflow: Von der Molekülgeometrie zum Grundzustand auf dem Quantencomputer
Am Beispiel des Wassermoleküls zeigen wir nun den gesamten Prozess, wie ein chemisches Problem in einen auf einem Quantencomputer ausführbaren Algorithmus übersetzt wird – und wie wir damit den Grundzustand innerhalb der gewählten Basis berechnen.
Schritt 1 – Molekülgeometrie festlegen
Wir starten mit der realistischen Geometrie des Moleküls:
- Bindungslänge O–H ≈ 0,958 Å
- Bindungswinkel H–O–H ≈ 104,5°
Diese Werte dienen als Eingabe für alle weiteren quantenchemischen Rechnungen. Sie bestimmen den Abstand der Kerne und damit das Coulomb-Potential, das die Elektronen spüren.
Schritt 2 – Wahl des Basissatzes
Wir wählen den minimalen STO-3G-Basissatz.
- Für Sauerstoff: 1s, 2s, 2pₓ, 2pᵧ, 2p_z → 5 räumliche Orbitale
- Für jeden Wasserstoff: 1s → je 1 Orbital
→ insgesamt 7 räumliche Orbitale × 2 Spins = 14 Spinorbitale
Mit diesem Basissatz beschränken wir den Hilbertraum. Alle weiteren Schritte sind innerhalb dieser Basis exakt.
Schritt 3 – Hartree–Fock und Molekülorbitale
Wir lösen die Roothaan–Hall-Gleichungen für das Molekül:
- Ergebnis: 7 Molekülorbitale als Linearkombination der Atomorbitale aus STO-3G
- Hartree–Fock liefert die Referenzwellenfunktion als Slater-Determinante mit 10 Elektronen in den energetisch niedrigsten Orbitale.
Schritt 4 – Integrale berechnen
Mit den HF-Orbitalen berechnen wir:
- Ein-Elektronen-Integrale $h_{pq}$ (kinetische Energie + Kernanziehung)
- Zwei-Elektronen-Integrale $g_{pqrs}$ (Coulomb- und Austauschwechselwirkung)
Diese Werte sind die vollständige Beschreibung aller Elektronenwechselwirkungen im gewählten Basissatz.
Schritt 5 – Hamiltonian in zweiter Quantisierung
Wir schreiben den Hamiltonian in der Leiteroperator-Form:
$$\hat{H} = \sum_{pq} h_{pq} \, a_p^\dagger a_q \;+\; \frac12 \sum_{pqrs} g_{pqrs} \, a_p^\dagger a_q^\dagger a_r a_s$$
Dabei laufen die Indizes über alle 14 Spinorbitale.
Schritt 6 – Fermion-zu-Qubit-Mapping
Wir wenden z. B. das Jordan–Wigner-Mapping an:
- Jedes Spinorbital → 1 Qubit
- Erzeugungs-/Vernichtungsoperatoren $a_p^\dagger, a_p$ werden in Pauli-Matrizen umgesetzt, Z-Ketten sichern die Antikommutationsrelationen.
- Ergebnis: Hamiltonian als Summe von Pauli-Strings $\sum_k \alpha_k P_k$.
Durch Symmetrien (Teilchenzahl, Spinprojektion) reduzieren wir typischerweise von 14 auf ca. 8 Qubits.
Schritt 7 – VQE-Implementierung
- Ansatz: UCCSD (Unitary Coupled Cluster mit Einfach- und Doppelanregungen) auf HF-Referenz
- Parameter: Rotationswinkel in den Anregungsgattern
- Messung: Erwartungswerte der Pauli-Strings $\langle P_k \rangle$
- Optimierung: z. B. Adam-Optimizer mit Gradienten aus der Parameter-Shift-Regel
- Iteration, bis die Energie konvergiert.
Schritt 8 – Ergebnis
- Der VQE liefert eine Näherung für die Grundzustandsenergie E0E_0E0 im STO-3G-Basissatz.
- Vergleich mit exakter Diagonalisierung (Full Configuration Interaction) zeigt, wie nah der VQE am exakten Ergebnis innerhalb der Basis liegt.
Fazit:
Dieser Workflow verdeutlicht, dass die Quantenchemie auf dem Quantencomputer aus einer Kette wohldefinierter Schritte besteht – von der molekularen Geometrie bis zum quantenmechanischen Optimierungsalgorithmus. Jeder Schritt ist innerhalb des gewählten Basissatzes exakt, und der Quantencomputer übernimmt genau den Teil, der klassisch exponentiell teuer wäre: die effiziente Repräsentation und Optimierung hochkorrelierter Vielteilchenzustände.
Abschluss
Die Bestimmung des Grundzustands eines Moleküls mit einem Quantencomputer ist mehr als ein akademisches Experiment – sie ist ein Schlüssel zu Anwendungen, die weit über das Wassermolekül hinausgehen. Die hier vorgestellte Vorgehensweise, vom elektronischen Hamiltonian über die Abbildung in eine Qubit-Darstellung bis hin zur Optimierung mit hybriden Algorithmen wie VQE, lässt sich prinzipiell auf beliebige Moleküle übertragen.
Das Potenzial ist enorm:
- Materialwissenschaft: Entwurf neuartiger Halbleiter, Supraleiter oder Photovoltaik-Materialien.
- Katalyseforschung: Simulation von Reaktionszentren, die für die Herstellung von Treibstoffen oder chemischen Grundstoffen entscheidend sind.
- Pharmazeutische Chemie: Vorhersage von Moleküleigenschaften und Wirkstoffdesign auf Basis quantenmechanischer Präzision.
Noch stehen diese Anwendungen am Anfang, da heutige Quantencomputer in Größe und Genauigkeit begrenzt sind. Doch die hier beschriebenen Methoden zeigen bereits, wie sich komplexe elektronische Korrelationen effizient erfassen lassen – ein Gebiet, auf dem klassische Rechner schnell an ihre Grenzen stoßen. Mit wachsender Qubit-Zahl und besserer Fehlerkorrektur wird der Quantencomputer zunehmend zu einem Werkzeug, das für die Chemie so selbstverständlich sein könnte wie heute das Spektrometer oder die DFT-Simulation.