📐 LINA2 Lernhilfe Lineare Algebra II – FU Berlin WiSe 2025/26

4. Skalarprodukte & Gram-Schmidt-Verfahren

PRIORITÄT 3 – Hier hast du 16/30 Punkte verloren (Aufgabe 3)!

💡 Worum geht es hier? – Einfach erklärt

Ein Skalarprodukt ist eine Methode, um in einem Vektorraum Längen und Winkel zu messen. Im $\mathbb{R}^2$ kennst du das als das gewöhnliche Punktprodukt: $\langle x | y \rangle = x_1 y_1 + x_2 y_2$. Dieses Konzept lässt sich verallgemeinern – sogar auf Funktionenräume, wo das Skalarprodukt ein Integral wird. Entscheidend ist: Zwei Vektoren stehen senkrecht (orthogonal) zueinander, wenn ihr Skalarprodukt Null ergibt.

Im Komplexen wird das etwas kniffliger. Weil komplexe Zahlen einen Real- und Imaginärteil haben, muss man beim Skalarprodukt das erste Argument konjugieren: $\langle x | y \rangle = \sum \overline{x_i} y_i$. Das nennt man hermitesches Skalarprodukt. Der Haken: $\langle u | v \rangle \neq \langle v | u \rangle$ – stattdessen gilt $\langle u | v \rangle = \overline{\langle v | u \rangle}$. Dieses Detail war in deiner Klausuraufgabe entscheidend!

Das Gram-Schmidt-Verfahren ist ein Algorithmus, der aus einer beliebigen Basis eine Orthonormalbasis macht – also eine Basis, in der alle Vektoren Länge 1 haben und paarweise senkrecht aufeinander stehen. Die Idee ist einfach: Du nimmst den ersten Vektor und normierst ihn. Dann nimmst du den zweiten Vektor, ziehst den Anteil ab, der in Richtung des ersten zeigt, und normierst das Ergebnis. So machst du weiter, bis alle Vektoren sauber orthogonal zueinander sind. Die Reihenfolge ist immer: erst orthogonalisieren (Projektionen abziehen), dann normieren.

Für die Nachklausur: In Aufgabe 3 der Klausur musstest du Gram-Schmidt im Funktionenraum mit komplexem Skalarprodukt durchführen. Der häufigste Fehler hier: Die Konjugation vergessen! Wenn $f(x) = ix$ ist, dann ist $\overline{f(x)} = -ix$. Übe das Verfahren Schritt für Schritt an konkreten Beispielen durch, bis der Ablauf automatisch sitzt.

4.1 Skalarprodukte – Axiome

🎓 eLehrer-Erklärung einblenden

Das Skalarprodukt ist letztlich nur das Mathe-Wort für ein Werkzeug, das universell Längen messen und Winkel (Orthogonalität) zwischen zwei Elementen berechnen kann.

🔗 Zugehörige Übungen:
- Übungsblatt 9, AP 1: Euklidische Räume
- Übungsblatt 9, AP 4: Unitäre Vektorräume

🎓 eLehrer-Erklärung einblenden

Das Skalarprodukt ist letztlich nur das Mathe-Wort für ein Werkzeug, das universell Längen messen und Winkel (Orthogonalität) zwischen zwei Elementen berechnen kann.

Reelles Skalarprodukt

🎓 eLehrer-Erklärung einblenden

Das simple Punktprodukt aus der Schule. $x_1 y_1 + x_2 y_2$. Es ist zu sich selbst immer komplett symmetrisch.

$\langle \cdot | \cdot \rangle: V \times V \to \mathbb{R}$ heißt Skalarprodukt, wenn:

  1. Symmetrie: $\langle u | v \rangle = \langle v | u \rangle$
  2. Linearität (im 2. Argument): $\langle u | \alpha v + \beta w \rangle = \alpha\langle u | v \rangle + \beta\langle u | w \rangle$
  3. Positive Definitheit: $\langle v | v \rangle \geq 0$ und $\langle v | v \rangle = 0 \iff v = 0$

Komplexes Skalarprodukt (hermitesch) ← KLAUSURRELEVANT!

🎓 eLehrer-Erklärung einblenden

Im Komplexen droht ein Problem: Multipliziert man i mit sich selbst, ergäbe das eine negative Länge (-1). Darum muss im Skalarprodukt das erste Argument IMMER konjugiert werden! Dabei gilt: $\langle u|v

angle = \overline{\langle v|u

angle}$.

$\langle \cdot | \cdot \rangle: V \times V \to \mathbb{C}$ heißt Skalarprodukt, wenn:

  1. Hermitesche Symmetrie: $\langle u | v \rangle = \overline{\langle v | u \rangle}$
  2. Antilinearität im 1. Argument: $\langle \alpha u | v \rangle = \overline{\alpha}\langle u | v \rangle$
  3. Linearität im 2. Argument: $\langle u | \alpha v \rangle = \alpha\langle u | v \rangle$
  4. Positive Definitheit: $\langle v | v \rangle \geq 0$ und $\langle v | v \rangle = 0 \iff v = 0$

⚠️ VORSICHT: Im Komplexen ist $\langle u | v \rangle \neq \langle v | u \rangle$, sondern $\langle u | v \rangle = \overline{\langle v | u \rangle}$!

Standard-Skalarprodukte

🎓 eLehrer-Erklärung einblenden

Denk daran: Integrale sind das absolute Äquivalent zur Vektor-Summe, wenn du von diskreten Spaltenvektoren zu kontinuierlichen Funktionen wechselst. Ein Integral über $f(x)g(x)$ IST ein Skalarprodukt.

Norm (durch Skalarprodukt induziert)

🎓 eLehrer-Erklärung einblenden

Jedes Skalarprodukt eines Vektors mit sich selbst ergibt die quadrierte Länge. Wenn du am Ende die Wurzel ziehst, ist dein Vektor 'genormt' (Länge 1).

$$\|v\| = \sqrt{\langle v | v \rangle}$$

🎓 Wikipedia-Ergänzung: Cauchy-Schwarz & Norm-Eigenschaften

Nach Wikipedia (Skalarprodukt):

  • Cauchy-Schwarzsche Ungleichung: $|\langle x | y \rangle|^2 \leq \langle x | x \rangle \cdot \langle y | y \rangle$. Diese liefert die obere Schranke für Skalarprodukte und begründet die Dreiecksungleichung der Norm. Die obige Gleichheit gilt genau dann, wenn $x$ und $y$ linear abhängig sind.
  • Allgemeiner Winkelbegriff: Durch Umstellen auf $\cos(\varphi) = \frac{\langle x | y \rangle}{\|x\|\|y\|}$ lässt sich auch in abstrakten Vektorräumen (z. B. Funktionenräumen mit L2-Skalarprodukt d. h. Integralen) ein "Winkel" zwischen Funktionen definieren. Darauf basiert unsere gesamte Auffassung von "Orthogonalität".
  • Aus dem Skalarprodukt abgeleitete Normen erfüllen immer die Parallelogrammgleichung.

4.2 Orthogonalität

🎓 eLehrer-Erklärung einblenden

Zwei Vektoren (oder Funktionen!) haben absolut keine Berührungspunkte, keine gemeinsame Richtung. Sie spannen den Raum maximal breit auf.

Definitionen

🎓 eLehrer-Erklärung einblenden

Orthogonal = Senkrecht (Skalarprodukt = 0). Orthonormal = Senkrecht UND auf Länge 1 normiert. Ein ONS ist wahnsinnig bequem zu rechnen, da fast jede Multiplikation in 0 oder 1 zerfällt.

Orthogonales Komplement

🎓 eLehrer-Erklärung einblenden

Das ist genau die Menge aller Vektoren im Raum, die auf deinem Unterraum senkrecht stehen. Wenn du auf dem flachen Fußboden deines Zimmers stehst, ist das Komplement genau die Achse, die zur Decke zeigt.

$$U^\perp = \{v \in V \mid \langle v | u \rangle = 0 \text{ für alle } u \in U\}$$

Es gilt: $V = U \oplus U^\perp$ (direkte Summe)

4.3 Gram-Schmidt-Verfahren – Schritt für Schritt

🎓 eLehrer-Erklärung einblenden

Der systematische 'Schatten-Auslöscher'-Algorithmus. Wir wollen saubere Orthogonalachsen formen, indem wir iterativ immer das abziehen, was nicht senkrecht ist.

🔗 Zugehörige Übungen:
- Übungsblatt 6, AP 1: Gram-Schmidt-Verfahren

🎓 eLehrer-Erklärung einblenden

Der systematische 'Schatten-Auslöscher'-Algorithmus. Wir wollen saubere Orthogonalachsen formen, indem wir iterativ immer das abziehen, was nicht senkrecht ist.

Eingabe: Linear unabhängige Vektoren $v_1, \ldots, v_k$

Ausgabe: Orthonormalbasis $e_1, \ldots, e_k$

Algorithmus

🎓 eLehrer-Erklärung einblenden

Wenn du von $v_2$ den Term $\langle u_1|v_2

angle u_1$ subtrahierst, schneidest du genau den Schatten ab, den $v_2$ auf $u_1$ wirft. Zurück bleibt genau der Teil, der strikt senkrecht absteht. Das klappt exakt so auch mit Polynomen!

Schritt 1: Normiere den ersten Vektor

$$e_1 = \frac{v_1}{\|v_1\|}$$

Schritt 2: Subtrahiere Projektion, dann normiere

$$\tilde{e}_2 = v_2 - \langle e_1 | v_2 \rangle \, e_1$$

$$e_2 = \frac{\tilde{e}_2}{\|\tilde{e}_2\|}$$

Schritt $k$: Subtrahiere alle vorherigen Projektionen, dann normiere

$$\tilde{e}_k = v_k - \sum_{j=1}^{k-1} \langle e_j | v_k \rangle \, e_j$$

$$e_k = \frac{\tilde{e}_k}{\|\tilde{e}_k\|}$$

MERKE die Reihenfolge: Projektion abziehen → normieren. NICHT umgekehrt!

🎓 Wikipedia-Ergänzung: Geometrisches Prinzip & QR-Zerlegung

Nach Wikipedia (Gram-Schmidt-Verfahren):

  • Geometrisches Prinzip: Man zieht von einem Vektor $w_k$ genau die Projektions-Anteile der bereits ermittelten orthogonalen Vektoren $v_1, \dots, v_{k-1}$ ab, sodass der "abgeschnittene" Differenzvektor danach konsequent senkrecht auf allen steht.
  • Sukzessiver Aufspann: Eine essenzielle Eigenschaft ist, dass nach jedem Zwischenschritt $i$ die neu berechneten Vektoren $(e_1, \dots, e_i)$ exakt denselben Untervektorraum erzeugen wie die Startvektoren $(w_1, \dots, w_i)$.
  • Die Matrix-Sicht (QR-Zerlegung): Fasst man die neu gewonnenen orthonormalen Vektoren als Spalten einer Matrix $Q$ zusammen und die ursprünglichen $w$-Vektoren als Matrix $A$, so gilt $A = QR$ (wobei $R$ eine obere Dreiecksmatrix ist). Gram-Schmidt ist faktisch der numerische Weg zur QR-Zerlegung.

4.4 Klausuraufgabe 3 – Komplette Musterlösung

🎓 eLehrer-Erklärung einblenden

Hier haben fast alle Punkte verloren! Beim komplexen Integral wird die Konjugation vergessen. Wenn du $ix$ in den linken Slot des Skalarprodukts knallst, MUSS das Integral mit $-ix$ (konjugiert) weiterrechnen sonst wird das Ergebnis falsch.

Gegeben: $f_1(x) = 1$, $f_2(x) = ix$ auf $[0,1]$

Skalarprodukt: $\langle f | g \rangle = \int_0^1 \overline{f(x)} g(x) \, dx$

Gesucht: ONB von $\text{span}(f_1, f_2)$


Schritt 1: Normiere $f_1$

$$\|f_1\|^2 = \langle f_1 | f_1 \rangle = \int_0^1 \overline{1} \cdot 1 \, dx = \int_0^1 1 \, dx = 1$$

$$\|f_1\| = 1$$

$$e_1(x) = \frac{f_1(x)}{\|f_1\|} = 1$$


Schritt 2: Berechne $\langle e_1 | f_2 \rangle$

$$\langle e_1 | f_2 \rangle = \int_0^1 \overline{1} \cdot ix \, dx = i \int_0^1 x \, dx = i \cdot \frac{1}{2} = \frac{i}{2}$$


Schritt 3: Orthogonalisiere $f_2$

$$\tilde{e}_2(x) = f_2(x) - \langle e_1 | f_2 \rangle \cdot e_1(x)$$

$$= ix - \frac{i}{2} \cdot 1 = ix - \frac{i}{2} = i\left(x - \frac{1}{2}\right)$$


Schritt 4: Normiere $\tilde{e}_2$

$$\|\tilde{e}_2\|^2 = \langle \tilde{e}_2 | \tilde{e}_2 \rangle = \int_0^1 \overline{i\left(x - \frac{1}{2}\right)} \cdot i\left(x - \frac{1}{2}\right) dx$$

$$= \int_0^1 (-i)\left(x - \frac{1}{2}\right) \cdot i\left(x - \frac{1}{2}\right) dx$$

$$= \int_0^1 (-i \cdot i)\left(x - \frac{1}{2}\right)^2 dx = \int_0^1 1 \cdot \left(x - \frac{1}{2}\right)^2 dx$$

(weil $-i \cdot i = -i^2 = -(-1) = 1$)

$$= \int_0^1 \left(x - \frac{1}{2}\right)^2 dx = \left[\frac{(x - \frac{1}{2})^3}{3}\right]_0^1 = \frac{(\frac{1}{2})^3}{3} - \frac{(-\frac{1}{2})^3}{3} = \frac{1}{24} + \frac{1}{24} = \frac{1}{12}$$

$$\|\tilde{e}_2\| = \frac{1}{\sqrt{12}} = \frac{1}{2\sqrt{3}}$$


Schritt 5: Ergebnis

$$e_1(x) = 1$$

$$e_2(x) = \frac{\tilde{e}_2}{\|\tilde{e}_2\|} = \frac{i(x - \frac{1}{2})}{\frac{1}{2\sqrt{3}}} = 2\sqrt{3} \cdot i\left(x - \frac{1}{2}\right)$$


Probe: $\langle e_1 | e_2 \rangle = \int_0^1 1 \cdot 2\sqrt{3} \, i(x - \frac{1}{2}) \, dx = 2\sqrt{3} i \int_0^1 (x - \frac{1}{2}) \, dx = 2\sqrt{3} i \cdot 0 = 0$ ✓

4.5 Projektionsoperatoren

🎓 eLehrer-Erklärung einblenden

Wenn man eine zu schwere Gleichung lösen will, projiziert man sie mit $P_U$ auf einen einfacheren Unterraum. Das stutzt die Gleichung auf das Wesentliche zurück.

🔗 Zugehörige Übungen:
- Übungsblatt 5, AP 4: Galerkin-Projektion
- Übungsblatt 6, AP 2: Projektionsabbildung

🎓 eLehrer-Erklärung einblenden

Wenn man eine zu schwere Gleichung lösen will, projiziert man sie mit $P_U$ auf einen einfacheren Unterraum. Das stutzt die Gleichung auf das Wesentliche zurück.

Orthogonalprojektion auf einen Unterraum

🎓 eLehrer-Erklärung einblenden

Hast du eine ONS-Basis, baust du dir deine Projektion direkt aus Summen zusammen. Alles, was nicht reinpasst, fällt atomar zu Null ab.

Sei $U = \text{span}(u_1, \ldots, u_k)$ mit ONB $e_1, \ldots, e_k$. Dann:

$$P_U(v) = \sum_{i=1}^{k} \langle e_i | v \rangle \, e_i$$

Eigenschaften

🎓 eLehrer-Erklärung einblenden

$P^2 = P$ (idempotent) heißt: Wenn ich einmal einen Taschenlampenschatten auf den Boden geworfen habe, bleibt es der exakt selbe Schatten, wenn ich die Lampe nochmal von oben drauf scheinen lasse.