6. Bilinearformen, Orthogonalität, Isometrien & Gruppentheorie
In diesem Kapitel kommen mehrere Themen zusammen, die auf den ersten Blick unterschiedlich wirken, aber alle mit der Frage zu tun haben: Wie misst man Geometrie in Vektorräumen, und welche Abbildungen erhalten diese Geometrie?
Eine Bilinearform ist wie ein verallgemeinertes Skalarprodukt – eine Funktion, die zwei Vektoren nimmt und eine Zahl zurückgibt, und die in beiden Argumenten linear ist. Im Komplexen heißt das Ganze Sesquilinearform, weil es im ersten Argument „anderthalblinear" (anti-linear) ist. Jede Bilinearform lässt sich durch eine Matrix $G$ darstellen: $\beta(v, w) = v^T G w$. Die Signatur von $G$ (wie viele positive, negative und Null-Eigenwerte sie hat) ist eine Invariante – sie ändert sich nicht, egal welche Basis du wählst.
Adjungiertheit ist ein Konzept, bei dem du fragst: Wenn ich eine Matrix $A$ auf der linken Seite eines Skalarprodukts habe, welche Matrix $A^*$ muss ich auf die rechte Seite schreiben, damit der Wert gleich bleibt? Im Reellen ist das einfach die Transponierte, im Komplexen die konjugiert-Transponierte. Daraus ergeben sich wichtige Matrixklassen: selbstadjungierte Matrizen (alle Eigenwerte reell), orthogonale Matrizen (erhalten Längen und Winkel) und unitäre Matrizen (die komplexe Version davon).
Isometrien sind Abbildungen, die alle Abstände erhalten – sie verzerren den Raum nicht. Orthogonale Matrizen sind genau die Isometrien des $\mathbb{R}^n$: entweder Drehungen (Determinante $+1$) oder Spiegelungen (Determinante $-1$). Die Menge aller solchen Matrizen bildet eine Gruppe – das heißt, du kannst sie hintereinander ausführen und jede rückgängig machen, und das Ergebnis ist wieder eine Isometrie.
Für die Nachklausur: Dieses Kapitel ist hinter den Kulissen überall präsent. In der Klausur kam die Frage, ob eine Matrix symmetrisch sein kann (Aufgabe 1.9) – dafür brauchst du den Spektralsatz: symmetrische Matrizen sind diagonalisierbar. Die Gruppentheorie-Grundlagen (Definition einer Gruppe, Untergruppe, wichtige Beispiele wie $GL(n)$, $O(n)$, $SO(n)$) solltest du kennen – mindestens die Definitionen.
6.1 Bilinearformen
🎓 eLehrer-Erklärung einblenden
Denk an Bilinearformen als ein verallgemeinertes Skalarprodukt. Eine Maschine, die zwei Vektoren als Input frisst und dir dazu passend genau einen reellen Wert/Skalar ausspuckt.
Definition
🎓 eLehrer-Erklärung einblenden
Längentreu bedeutet: $\Vert f(v) \Vert = \Vert v \Vert$. Der komplette Zielraum wird als starrer Block gedreht oder an einer Achse geklappt.
Eine Bilinearform $\beta: V \times V \to K$ ist linear in beiden Argumenten:
- $\beta(\alpha u + \beta v, w) = \alpha \beta(u, w) + \beta \beta(v, w)$
- $\beta(u, \alpha v + \beta w) = \alpha \beta(u, v) + \beta \beta(u, w)$
Sesquilinearform (Halbilinearform)
🎓 eLehrer-Erklärung einblenden
WICHTIG in Klausuren! Das komplexe Integral ist im 1. Argument stets 'antilinear'. Zieht man dort ein $i$ aus der Klammer, wandert es als komplex konjugiertes $-i$ nach draußen.
Im Komplexen: $\sigma: V \times V \to \mathbb{C}$ ist linear im 2. Argument, antilinear im 1.:
$$\sigma(\alpha u, v) = \overline{\alpha} \, \sigma(u, v)$$
Ein komplexes Skalarprodukt ist eine positiv definite hermitesche Sesquilinearform.
Darstellungsmatrix
🎓 eLehrer-Erklärung einblenden
Jede Bilinearform kann durch schlichte Matrizen-Multiplikation formuliert werden: $v^T A w$. Das $A$ ist das Herzstück der Maschine.
Bzgl. einer Basis $B = (b_1, \ldots, b_n)$:
$$G_{ij} = \beta(b_i, b_j)$$
Dann: $\beta(v, w) = [v]_B^T \cdot G \cdot [w]_B$
Symmetrie/Antisymmetrie
🎓 eLehrer-Erklärung einblenden
Ist die Matrix $A=A^T$ (symmetrisch), dürfen links und rechts die Inputs getauscht werden. Antisymmetrie begegnet dir ständig als Kreuzprodukt in der Physik.
- Symmetrisch: $\beta(u, v) = \beta(v, u)$ $\iff$ $G = G^T$
- Antisymmetrisch: $\beta(u, v) = -\beta(v, u)$ $\iff$ $G = -G^T$
🎓 Wikipedia-Ergänzung: Ausartungsraum & Basiswechsel
Nach Wikipedia (Bilinearform):
- Ausartungsraum: Dies ist die Menge der Vektoren $v$, die in der Form mit allen anderen Vektoren $w$ den Wert 0 ergeben (d.h. $\beta(v,w) = 0$ für alle $w$). Sind Rechts- und Linkskern einer Form nur $\{0\}$, nennt man sie nicht ausgeartet. Ein Skalarprodukt ist ein prominentes Beispiel einer nicht ausgearteten Form.
- Basiswechsel: Wechselt man die Basis über eine Transformationsmatrix $S$, so ändert sich die darstellende Matrix $G$ nach der Regel $S^T G S$. Man sagt, die Matrizen $G$ und $S^T G S$ sind zueinander kongruent.
6.2 Quadratische Formen
🎓 eLehrer-Erklärung einblenden
Du steckst zwei mal den GLEICHEN Vektor v in die Formel hinein: $Q(v) = v^T A v$. Grafisch im Raum erzeugt das z.B. Parabolstäbe oder Schüsseln (wie $x^2 + y^2$).
$$q(v) = \beta(v, v) = v^T G v$$
Signatur
🎓 eLehrer-Erklärung einblenden
Sylvester sagt: Auch wenn du dein Koordinatensystem brutal verbiegst, die Anzahl der '+', '-', und '0' Vorzeichen bleibt gleich. $(+,+)$ formt eine Schale nach oben, $(+,-)$ einen Pringles-artigen Sattel.
Die Signatur $(p, q, r)$ gibt an:
- $p$ = Anzahl positiver Eigenwerte von $G$
- $q$ = Anzahl negativer Eigenwerte von $G$
- $r$ = Anzahl Null-Eigenwerte von $G$
Trägheitssatz von Sylvester: Die Signatur ist eine Invariante (unabhängig von der Basis).
🎓 Wikipedia-Ergänzung: Polarisierung & Definitheit
Nach Wikipedia (Quadratische Form):
- Polarisierung: Zu jeder quadratischen Form existiert eindeutig eine symmetrische Bilinearform $\beta$, welche durch $\beta(x,y) = \frac{1}{2}(q(x+y) - q(x) - q(y))$ ("Polarisationsformel") zurückgewonnen werden kann. $q$ und $\beta$ bedingen sich gegenseitig zwingend.
- Definitheit & Geometrie: Betrachtet man quadratische Formen über reellen Zahlen, so eignen sie sich zur Einführung von Längen/Metriken genau dann, wenn sie positiv definit sind (Signatur $(n, 0, 0)$), die quadratischen Argumente also nur für den Nullvektor als einziges Null werden.
- Anwendungen: In der Zahlentheorie geht es oft um die Frage, welche ganzen Zahlen sich als Lösungs-Werte einer ganzzahligen quadratischen Form repräsentieren lassen (z.B. der berühmte Vier-Quadrate-Satz: Jede natürliche Zahl ist Summe von vier Quadratzahlen).
6.3 Adjungiertheit
🎓 eLehrer-Erklärung einblenden
Adjungiert = Das große Gegenstück. Wie bei komplexen Zahlen das Konjugieren, nur eben für Matrizen. Bei reellen Matrizen ist es einfach nur Matrix transponieren $
ightarrow A^T$.
Definition
🎓 eLehrer-Erklärung einblenden
Längentreu bedeutet: $\Vert f(v) \Vert = \Vert v \Vert$. Der komplette Zielraum wird als starrer Block gedreht oder an einer Achse geklappt.
$A^*$ heißt Adjungierte von $A$ bzgl. $\langle \cdot | \cdot \rangle$, wenn:
$$\langle Av | w \rangle = \langle v | A^* w \rangle \quad \text{für alle } v, w$$
Konkret
🎓 eLehrer-Erklärung einblenden
Der Standard-Move im Komplexen: Diagonale spiegeln (transponieren) UND sofort noch jedes 'i' zu einem '-i' machen.
- Reell mit Standard-SP: $A^* = A^T$
- Komplex mit Standard-SP: $A^* = \overline{A}^T$ (konjugiert-transponiert)
Spezialmatrizen
🎓 eLehrer-Erklärung einblenden
Selbstadjungiert heißt Matrix = Matrix*. In der Quantenphysik garantiert das z.B., dass Messwerte der Schwingungen absolut reell bleiben.
| Typ | Bedingung | Eigenschaft | ||
|---|---|---|---|---|
| Selbstadjungiert (hermitesch) | $A^* = A$ | Alle EW reell | ||
| Schiefsymmetrisch | $A^* = -A$ | Alle EW rein imaginär | ||
| Normal | $A^A = AA^$ | Unitär diagonalisierbar | ||
| Orthogonal | $A^T A = I$ | $ | {\lambda_i} | = 1$ |
| Unitär | $A^* A = I$ | $ | {\lambda_i} | = 1$ |
6.4 Trigonalisierbarkeit
🎓 eLehrer-Erklärung einblenden
Wenn Diagonalisieren scheitert (wie z.B. bei reinen Rotationsmatrizen, die keine reellen EW haben), formen wir in den komplexen Zahlen wenigstens eine hübsche obere Dreiecksmatrix.
Satz
🎓 eLehrer-Erklärung einblenden
Über den komplexen Zahlen $\mathbb{C}$ hat wirklich jedes Polynom eine Wurzel. Deswegen ist das dort immer garantiert machbar. Im Reellen versuchen uns Rotationen das Leben schwerzumachen.
Jede Matrix $A \in \mathbb{C}^{n \times n}$ ist trigonalisierbar, d.h. es gibt eine unitäre Matrix $U$ mit:
$$U^* A U = T \quad \text{(obere Dreiecksmatrix)}$$
Schur-Zerlegung
🎓 eLehrer-Erklärung einblenden
Der Beweis, dass wir diese Dreiecksstruktur durch eine absolut ordentliche Transformationsmatrix U erreichen, die selbst Isometrien (Basiswinkel) erhält.
Für normale Matrizen ($A^A = AA^$) ist die Schur-Zerlegung eine Diagonalisierung:
$$U^* A U = D$$
Spektralsatz: Selbstadjungierte (= hermitesche) Matrizen sind unitär diagonalisierbar mit reellen Eigenwerten.
6.5 Isometrien
🎓 eLehrer-Erklärung einblenden
Transformationen absoluter Unveränderlichkeit! Weder stauchen noch strecken sie den Raum. Abstände zwischen Objektpunkten bleiben beim Bewegen erhalten.
Definition
🎓 eLehrer-Erklärung einblenden
Längentreu bedeutet: $\Vert f(v) \Vert = \Vert v \Vert$. Der komplette Zielraum wird als starrer Block gedreht oder an einer Achse geklappt.
$A$ ist eine Isometrie, wenn sie Abstände erhält:
$$\|Av\| = \|v\| \quad \text{für alle } v$$
Äquivalent: $\langle Av | Aw \rangle = \langle v | w \rangle$ für alle $v, w$
Orthogonale Matrizen ($\mathbb{R}^n$)
🎓 eLehrer-Erklärung einblenden
Bestehen in Spalten und Reihen aus ONS-Einheitsvektoren. Orthogonal-Fehlerfalle für Klausuren beachten: Es kann auch eine negative Determinante haben, dann ist es keine reine Drehung, sondern eine Spiegelung!
$A$ orthogonal $\iff A^T A = I \iff A^{-1} = A^T$
Eigenschaften:
- $\det(A) = \pm 1$
- Spalten (und Zeilen) bilden eine ONB
- $\det(A) = 1$: Rotation (spezielle orthogonale Gruppe $SO(n)$)
- $\det(A) = -1$: Spiegelung (oder Drehspiegelung)
🎓 Wikipedia-Ergänzung: Satz von Mazur-Ulam & Struktur der Isometrien
Nach Wikipedia (Isometrie):
- Struktur im $\mathbb{R}^n$: Jede Isometrie des euklidischen Raums in sich lässt sich als Verkettung einer orthogonalen (linearen) Abbildung und einer anschließenden Translation darstellen. Es gilt also immer $f(x) = Ax + b$ mit einer orthogonalen Matrix $A$.
- Satz von Mazur-Ulam (1932): Eine erstaunliche Verallgemeinerung besagt: Jede surjektive Isometrie zwischen zwei beliebigen reellen normierten Vektorräumen ist automatisch eine affine Abbildung (Bewahrt Geraden und Parallelität). Man muss also als Bedingung im rellen normierten Raum lediglich die Abständerhaltung fordern, und Linearität/Affinität springt zwingend von selbst heraus!
Unitäre Matrizen ($\mathbb{C}^n$)
🎓 eLehrer-Erklärung einblenden
Das komplexe Bruder-Gegenstück zur Isometrie. Da $A^* A = I$ gilt, liegen alle komplexen Eigenwerte genau auf einem Kreisring mit dem Maß-Betrag 1.
$A$ unitär $\iff A^ A = I \iff A^{-1} = A^$
6.6 Grundlagen der Gruppentheorie
🎓 eLehrer-Erklärung einblenden
Muss man für die Klausur einordnen können! Gruppen sind abgeschottete Welten (Mengen) mit einer Verknüpfung, aus der man nie zufällig 'herausrechnen' kann (Abgeschlossenheit).
🔗 Zugehörige Übungen:
- Übungsblatt 8, AP 3: Symmetriegruppe aufstellen
- Übungsblatt 10: Untergruppen von Automorphismen
🎓 eLehrer-Erklärung einblenden
Muss man für die Klausur einordnen können! Gruppen sind abgeschottete Welten (Mengen) mit einer Verknüpfung, aus der man nie zufällig 'herausrechnen' kann (Abgeschlossenheit).
Gruppe
🎓 eLehrer-Erklärung einblenden
Die 3 Grundsäulen: Du hast ein Element, das nichts tut (Nullvektor/Identität). Du kannst Aktionen rückgängig machen (Inverses/Subtraktion). Und die Ausführung bleibt in der Menge.
$(G, \circ)$ ist eine Gruppe, wenn:
- Abgeschlossenheit: $a \circ b \in G$ für alle $a, b \in G$
- Assoziativität: $(a \circ b) \circ c = a \circ (b \circ c)$
- Neutrales Element: $\exists e \in G: e \circ a = a \circ e = a$
- Inverses Element: $\forall a \in G \, \exists a^{-1} \in G: a \circ a^{-1} = e$
Abelsch: Wenn zusätzlich $a \circ b = b \circ a$ (kommutativ)
Wichtige Beispiele
🎓 eLehrer-Erklärung einblenden
🎓 Wikipedia-Ergänzung: Klassifikation & Nebenklassen
Nach Wikipedia (Gruppe):
- Satz von Lagrange: Für jede Untergruppe $H$ einer endlichen Gruppe $G$ gilt zwingend, dass die Ordnung (Elementanzahl) von $H$ stets exakt die Ordnung von $G$ teilt.
- Nebenklassen & Normalteiler: Jede Untergruppe $H$ induziert eine Äquivalenzrelation und somit eine Zerlegung der Gesamtgruppe in sogenannte Nebenklassen. Stimmen Links- und Rechtsnebenklassen völlig überein, nennt man $H$ einen Normalteiler, wodurch sich sogenannte Faktorgruppen bilden lassen.
- Lie-Gruppen: Die oben aufgeführten kontinuierlichen Matrixgruppen wie $GL(n)$ oder $O(n)$ sind nicht nur algebraische Gruppen, sondern gleichzeitig topologische Mannigfaltigkeiten, und spielen in der theoretischen Physik als Lie-Gruppen eine überragende Rolle (etwa zur Beschreibung von Naturgesetzen und Symmetrien).
$O(n)$ = Komplettes Set von Rotationen und spiegelnden Umklappungen. $SO(n)$ = 'Spezielle' Orthogonalgruppe, die Determinante ist strickt +1 (also absolute reine Drehung im Raum).
- $GL(n, K)$: invertierbare $n \times n$-Matrizen (allgemeine lineare Gruppe)
- $SL(n, K)$: Matrizen mit $\det = 1$ (spezielle lineare Gruppe)
- $O(n)$: orthogonale Matrizen
- $SO(n)$: orthogonale Matrizen mit $\det = 1$ (Rotationen)
- $U(n)$: unitäre Matrizen
- $S_n$: Permutationsgruppe (symmetrische Gruppe)
Untergruppen
🎓 eLehrer-Erklärung einblenden
Ein elitärer Zirkel innerhalb der Gruppe. So bilden Drehungen stets eine Untergruppe, reine Spiegelungen aber z.B. nicht (da Spiegelung hinter Spiegelung sofort in Drehung verfällt – du fällst aus dem Club raus!).
$H \subseteq G$ ist Untergruppe $\iff$
- $e \in H$
- $a, b \in H \Rightarrow a \circ b \in H$
- $a \in H \Rightarrow a^{-1} \in H$
Körper
🎓 eLehrer-Erklärung einblenden
Sämtliche Regeln unserer Schulmathematik komprimiert. Plus, mal, minus, geteilt – es geht alles (außer geteilt durch 0). Ob reelle Zahlen, komplexe, oder kleine Restklassenkörper – hier klappen alle Vektorraum-Skalaraxiome vollumfänglich.
$(K, +, \cdot)$ ist ein Körper, wenn:
- $(K, +)$ abelsche Gruppe mit neutralem Element 0
- $(K \setminus \{0\}, \cdot)$ abelsche Gruppe mit neutralem Element 1
- Distributivgesetz gilt
Beispiele: $\mathbb{Q}$, $\mathbb{R}$, $\mathbb{C}$, $\mathbb{F}_p = \mathbb{Z}/p\mathbb{Z}$ (endliche Körper)
6.7 Reversibilität
🎓 eLehrer-Erklärung einblenden
Ein Zusatzkonzept. Wenn Operatoren die Vorzeichen in der Matrix unter bestimmten Spiegelungs-Strukturen komplett invertieren. (Gibt es z.B. für Systeme mit vertauschter Zeitrichtung).
Eine lineare Abbildung $A$ heißt reversibel, wenn sie:
- bijektiv ist ($\ker(A) = \{0\}$ und $\text{Bild}(A) = V$)
- Also invertierbar: $A^{-1}$ existiert
Äquivalent für quadratische Matrizen:
$$A \text{ invertierbar} \iff \det(A) \neq 0 \iff 0 \text{ ist kein Eigenwert} \iff \ker(A) = \{0\}$$