📐 LINA2 Lernhilfe Lineare Algebra II – FU Berlin WiSe 2025/26

Das große Ganze – Wie hängt alles zusammen?

Lies dieses Dokument immer wieder. Jedes Mal wirst du neue Verbindungen sehen.
Der Dozent will genau das: Dass du erklären kannst, warum etwas gilt und wo es wieder auftaucht.


Die eine zentrale Idee

Lineare Algebra handelt von einer einzigen Frage:

Was macht eine Matrix $A$ mit Vektoren?

Alles – wirklich alles – sind verschiedene Blickwinkel auf diese Frage:

Und das Schöne ist: All diese Blickwinkel hängen zusammen. Das zeige ich dir jetzt.


1. Die Determinante – der rote Faden durch alles

Die Determinante ist der Klebstoff der linearen Algebra. Sie taucht überall auf:

Determinante ↔ Eigenwerte

$$\det(A) = \lambda_1 \cdot \lambda_2 \cdots \lambda_n$$

Warum? Das char. Polynom ist $\chi_A(\lambda) = \det(A - \lambda I)$. Setzt du $\lambda = 0$ ein, bekommst du $\det(A)$. Und das char. Polynom hat die Form $(\lambda_1 - \lambda)(\lambda_2 - \lambda)\cdots$. Bei $\lambda = 0$ steht da genau $\lambda_1 \cdot \lambda_2 \cdots$.

🎓 Wikipedia-Ergänzung: Determinante & Eigenwerte

Nach Wikipedia Determinante:

  • Zerfällt das charakteristische Polynom in Linearfaktoren $\chi_A(x) = (x-\alpha_1)\cdots(x-\alpha_n)$, so ist insbesondere $\det(A) = \alpha_1 \cdots \alpha_n$.
  • Ist $\chi_A(x) = x^n - a_1x^{n-1} + a_2x^{n-2} - \dots + (-1)^na_n$, so ist $a_n$ die Determinante von $A$.
  • Die Determinante ist (multiplikativ) ein Gruppenhomomorphismus: $\det(A \cdot B) = \det(A) \cdot \det(B)$ vom Raum der invertierbaren Matrizen in die Einheitengruppe des Körpers.

Was folgt daraus?

Merke: Determinante = 0, Eigenwert = 0, Kern nicht-trivial, nicht invertierbar – das ist alles dasselbe, nur anders formuliert!

Determinante ↔ Volumen & Orientierung

In der Klausur (1.7 + 1.8): Du hast $\det(A) = -1$ berechnet. Also:

Determinante ↔ JNF

$$\det(A) = \det(VJV^{-1}) = \det(V) \cdot \det(J) \cdot \det(V)^{-1} = \det(J)$$

Warum ist das wichtig? Weil $\det(J)$ = Produkt der Diagonaleinträge (Dreiecksmatrix!). Du musst also nur die Eigenwerte multiplizieren, egal wie kompliziert die Matrix ist.

Die Kette: $\det(AB) = \det(A)\det(B)$ ist die Produktregel der Determinante. Sie steckt auch hinter $\det(SAS^{-1}) = \det(A)$ – ähnliche Matrizen haben immer die gleiche Determinante.

Determinante ↔ Invertierbarkeit ↔ Kern

$$\det(A) \neq 0 \iff A \text{ invertierbar} \iff \ker(A) = \{0\} \iff \text{Rang}(A) = n$$

Das ist eine der wichtigsten Äquivalenzketten der Vorlesung. Wenn eine der Bedingungen gilt, gelten automatisch alle anderen. Und wenn eine nicht gilt, gilt keine.


2. Eigenwerte – die DNA der Matrix

Eigenwerte verraten dir fast alles über eine Matrix. Stell dir vor, du siehst nur die Eigenwerte – was weißt du dann schon?

Eigenwerte → Determinante & Spur

Eigenwerte → Invertierbarkeit

Kein Eigenwert = 0 $\iff$ $A$ invertierbar

Eigenwerte → Art der Matrix

Was du siehstWas die Matrix ist
Alle $\lambda_i$ reellKönnte symmetrisch sein
Alle $\lambda_i \in \{0, 1\}$Könnte eine Projektion sein ($A^2 = A$)
Alle $\lambda_i = 0$Nilpotent ($A^k = 0$ für ein $k$)
Alle $\lambda_i= 1$Könnte orthogonal/unitär sein (Isometrie)
Alle $\lambda_i > 0$Positiv definit (wenn symmetrisch)
🎓 Wikipedia-Ergänzung: Spektralsatz & Eigenschaften

Nach Wikipedia Eigenwertproblem:

  • Sind alle Eigenwerte einer Matrix $A$ echt positiv und reell, und die Matrix symmetrisch bzw. hermitesch, ist sie positiv definit.
  • Speziell für reelle symmetrische oder komplexe hermitesche Matrizen gilt: Alle Eigenwerte sind stets reell (Hauptwerte). Zudem lässt sich immer eine Orthonormalbasis aus Eigenvektoren angeben (Spektralsatz).
  • Gilt für einen Eigenwert, dass seine algebraische Vielfachheit gleich seiner geometrischen Vielfachheit ist, so spricht man von einem halbeinfachen (semisimple) Eigenwert.

Eigenwerte → Potenzen & Exponential

Wenn $Av = \lambda v$, dann:

Das ist der tiefe Grund, warum Aufgabe 4 funktioniert: Wenn die Eigenwerte nur 0 und 1 sind, dann sind die Eigenwerte von $A^k$ auch nur $0^k = 0$ und $1^k = 1$. Also "sieht" $A^k$ genauso aus wie $A$!


3. Der Dreiklang: Algebraische VF – Geometrische VF – JNF

Das ist das Herzstück der Vorlesung und das, was die meisten nicht verstehen:

Was die algebraische Vielfachheit sagt

= Wie oft taucht $\lambda$ als Nullstelle im char. Polynom auf?

= Wie viel "Platz" reserviert $\lambda$ in der Matrix?

🎓 Wikipedia-Ergänzung: Jordansche Normalform

Nach Wikipedia Jordansche Normalform:

  • Die Existenz der jordanschen Normalform liefert die Existenz der (additiven) Jordan-Chevalley-Zerlegung eines Endomorphismus: $J = D + N$, in einen diagonalisierbaren Anteil $D$ und einen nilpotenten Anteil $N$, mit $D N = N D$.
  • Zu jedem Eigenwert $\lambda_j$ gibt es seiner geometrischen Vielfachheit entsprechend viele Jordanblöcke. Die Gesamtdimension aller Jordanblöcke eines Eigenwertes entspricht seiner algebraischen Vielfachheit.
  • Haben alle Blöcke die Größe 1, so liegt der Spezialfall einer Diagonalmatrix vor und $A$ ist diagonalisierbar.

Was die geometrische Vielfachheit sagt

= Wie viele unabhängige Richtungen gibt es, in die $A$ einfach nur streckt (ohne zu "drehen")?

Was die JNF sagt

= Wie die Matrix wirklich aussieht, wenn man die richtige Brille ($V$) aufsetzt.

Die Verbindung

$$\text{geo. VF} = \text{Anzahl der Jordan-Blöcke}$$

$$\text{alg. VF} = \text{Gesamtgröße aller Jordan-Blöcke}$$

🎓 Wikipedia-Ergänzung: Rangsatz

Nach Wikipedia Rangsatz:

  • Der Rangsatz (auch Dimensionssatz oder Kern-Bild-Satz) besagt $\dim V = \text{def}(f) + \text{rk}(f)$ für eine lineare Abbildung $f: V \to W$.
  • Der Satz folgt unmittelbar aus dem Homomorphiesatz: $\text{im}(f) \cong V/\ker(f)$. Da der Faktorraum isomorph zu einem Komplementärraum $U$ von $\ker(f)$ ist, folgt $\dim V = \dim \ker(f) + \dim U = \dim \ker(f) + \dim \text{im}(f)$.

Beispiel aus der Klausur (EW = -1, alg. VF = 3):

Die entscheidende Frage: Ist geo = alg?

Warum Diagonalisierbarkeit so wichtig ist

Wenn $A = SDS^{-1}$ (diagonalisierbar), dann:

Deshalb will man wissen ob eine Matrix diagonalisierbar ist!


4. Kern, Bild & Rang – die Dimensionsbrille

Die Dimensionsformel (Rangsatz) verbindet alles

$$\underbrace{\dim(V)}_{= n} = \underbrace{\dim(\ker(A))}_{\text{Defekt}} + \underbrace{\dim(\text{Bild}(A))}_{\text{Rang}}$$

Was das bedeutet: Der Definitionsbereich teilt sich auf in "was vernichtet wird" und "was rauskommt". Je mehr vernichtet wird, desto weniger kommt raus.

Rang ↔ Determinante

Defekt ↔ Eigenwert 0

$$\text{Defekt}(A) = \dim(\ker(A)) = \text{geo. VF}(0)$$

In der Klausur (Aufgabe 2.2): Wenn EW 0 algebraische VF $m$ hat:

$$1 \leq \text{Defekt} \leq m$$

Das folgt direkt aus $1 \leq \text{geo. VF} \leq \text{alg. VF}$!


5. Skalarprodukt – die Messbrille

Ohne Skalarprodukt kann man nur "algebraisch" arbeiten (Gleichungen lösen). Mit Skalarprodukt kann man auch messen (Längen, Winkel).

Skalarprodukt → Orthogonalität

$\langle u | v \rangle = 0$ heißt "$u$ steht senkrecht auf $v$"

Skalarprodukt → Norm

$\|v\| = \sqrt{\langle v | v \rangle}$ = Länge des Vektors

Skalarprodukt → Gram-Schmidt

GS benutzt das Skalarprodukt, um eine beliebige Basis in eine orthonormale Basis umzuwandeln. Der Schlüssel ist die Projektion:

$$\text{proj}_e(v) = \langle e | v \rangle \cdot e$$

Das ist die "Komponente von $v$ in Richtung $e$". Gram-Schmidt zieht diese Komponenten ab.

Skalarprodukt → Adjungiertheit

$\langle Av | w \rangle = \langle v | A^* w \rangle$

Warum wichtig? Weil spezielle Beziehungen zwischen $A$ und $A^*$ die Matrix klassifizieren:

Skalarprodukt → Spektralsatz

Symmetrische Matrizen haben reelle Eigenwerte und sind orthogonal diagonalisierbar.

Warum kam das in der Klausur (1.9)?

Die JNF hat einen Block größe 2, also ist $A$ nicht diagonalisierbar. Wäre $A$ symmetrisch, müsste sie diagonalisierbar sein (Spektralsatz). Widerspruch! → $A$ ist nicht symmetrisch.


6. Cayley-Hamilton & Minimalpolynom – die Polynombrille

Die große Idee

Jede Matrix "gehorcht" ihrem eigenen Polynom:

$$\chi_A(A) = 0 \quad \text{(Cayley-Hamilton)}$$

Das heißt: Du kannst hohe Potenzen von $A$ immer durch niedrigere ausdrücken!

Minimalpolynom = das kürzeste Polynom, das $A$ "gehorcht"

Woher kommt das Minimalpolynom? → Aus der JNF!

Klausur (1.2): Größter Block zu EW 1 hat Größe 1, zu EW -1 Größe 2.

→ $\mu_A = (\lambda - 1)^1 (\lambda + 1)^2$

Die Kette: Minimalpolynom → $A^2 = A$ → $A^m = A$ → $\exp(A)$

Das war die ganze Aufgabe 4:

  1. Minimalpolynom $= \lambda^2 - \lambda$ (weil diagonalisierbar mit EW 0, 1)
  2. Cayley-Hamilton → $A^2 - A = 0$ → $A^2 = A$
  3. Induktion → $A^m = A$ für alle $m \geq 1$
  4. Definition von $\exp(A) = \sum \frac{A^k}{k!}$ → setze $A^k = A$ ein → fertig!

Siehst du die Kette? Minimalpolynom → Matrixgleichung → Induktion → Exponential. Alles baut aufeinander auf!


7. Die Vernetzungsmatrix – Alles auf einen Blick

Lies diese Tabelle spaltenweise: "Wenn ich X kenne, was weiß ich dann über Y?"

Wenn ich ... kenne→ Eigenwerte→ Determinante→ Rang/Kern→ Diagonalisierbar?→ Symmetrisch?
Eigenwerte$= \prod \lambda_i$EW=0 ↔ Kern≠{0}Brauche auch geo. VFWenn alle reell: möglich
DeterminanteNur Produkt$\neq 0$ ↔ voller RangNeinNein
JNFDiagonale ablesenDiagonale multiplizierenAnzahl Nullen auf Diag.Alle Blöcke Größe 1?Alle Blöcke Größe 1 + reelle EW
Char. Polynom= Nullstellen$= \chi_A(0)$EW=0 vorhanden?Brauche geo. VFNein
Minimalpolynom= NullstellenIndirektEW=0 vorhanden?Nur einfache Nullstellen?Nur einfache Nullstellen + reelle EW
Skalarprodukt$A = A^T$ prüfbar

8. Die 5 wichtigsten "Warum?"-Fragen für die Klausur

Warum gilt $\det(A) = \det(J)$?

Weil $A = VJV^{-1}$ und $\det(AB) = \det(A)\det(B)$. Die $\det(V)$ und $\det(V^{-1})$ kürzen sich weg.

Allgemeiner: Ähnliche Matrizen haben die gleiche Determinante, die gleichen Eigenwerte, das gleiche char. Polynom und das gleiche Minimalpolynom. All diese Dinge sind Invarianten unter Ähnlichkeit.

Warum ist eine symmetrische Matrix immer diagonalisierbar?

Weil der Spektralsatz sagt: Für symm. Matrizen existiert eine ONB aus Eigenvektoren. Eigenvektoren zu verschiedenen EW sind automatisch orthogonal (das folgt aus $\langle Av | w \rangle = \langle v | Aw \rangle$ für symmetrische $A$).

→ Wenn es eine Basis aus Eigenvektoren gibt, sind alle Jordan-Blöcke Größe 1 → diagonalisierbar.

Warum braucht man Gram-Schmidt?

Weil eine Basis meistens nicht orthonormal ist. Aber ONBs sind super praktisch:

Warum funktioniert $\exp(A) = I + (e-1)A$?

Weil $A^2 = A$ (idempotent). Das bedeutet: $A$ projiziert auf einen Unterraum. Projizierst du zweimal, passiert nichts Neues. Deshalb sind alle Potenzen gleich, und die unendliche Summe wird endlich.

Tiefere Einsicht: Die Eigenwerte von $A$ sind 0 und 1. $\exp(A)$ hat die Eigenwerte $e^0 = 1$ und $e^1 = e$. Also $\exp(A) = 1 \cdot P_0 + e \cdot P_1$, wobei $P_0, P_1$ Projektionen auf die Eigenräume sind. Das ist dasselbe wie $I + (e-1)A$!

Warum ist Induktion bei Matrixbeweisen so häufig?

Weil viele Matrixeigenschaften sich iterativ aufbauen:


9. Drei Geschichten, die alles verbinden

Geschichte 1: "Die Matrix als Maschine"

Stell dir $A$ als Maschine vor, die Vektoren rein bekommt und Vektoren rausspuckt.

Geschichte 2: "Vom Char. Polynom zur kompletten Analyse"

Du bekommst eine Matrix $A$. Was tust du?

  1. Char. Polynom berechnen → Eigenwerte finden
  2. Für jeden EW: Eigenraum berechnen ($\ker(A - \lambda I)$) → geo. VF
  3. Geo. VF vs. alg. VF → Diagonalisierbar?
  4. Wenn ja: $A = SDS^{-1}$ → alles leicht ($A^k$, $\exp(A)$, ...)
  5. Wenn nein: JNF bestimmen → Hauptvektoren → $A = VJV^{-1}$
  6. Aus der JNF: Minimalpolynom, Determinante, alles ablesen
  7. Cayley-Hamilton nutzen für Matrixgleichungen

Alles hängt zusammen! Char. Polynom → Eigenwerte → Eigenräume → JNF → Minimalpolynom → Matrixgleichungen.

Geschichte 3: "Skalarprodukt als Upgrade"

Ohne Skalarprodukt kannst du:

Mit Skalarprodukt kannst du zusätzlich:

Das Skalarprodukt ist das geometrische Upgrade der algebraischen Theorie.


10. Verbotene Kurzschlüsse (häufige Denkfehler!)

FalschRichtig
"Alle EW reell → symmetrisch"Alle EW reell ist notwendig, aber nicht hinreichend!
"alg. VF > 1 → nicht diagonalisierbar"Falsch! Nur wenn geo. VF < alg. VF → nicht diagonalisierbar
"$\det(A) = 1$ → orientierungserhaltend"Ja, das ist korrekt!
"$\det(A) \neq 0$ → diagonalisierbar"Falsch! $\det \neq 0$ heißt nur: invertierbar
"Orthogonale Matrix → Rotation"Nur wenn $\det = +1$! Bei $\det = -1$: Spiegelung
"Minimalpolynom = char. Polynom"Nur wenn es einen einzigen Jordan-Block pro EW gibt
"Gram-Schmidt ändert den aufgespannten Raum"Falsch! GS ändert nur die Basis, nicht den Raum

Letzte Worte

Wenn du in der Klausur eine Aufgabe siehst, frag dich immer:

  1. Welche Objekte sind beteiligt? (Matrix, Eigenwerte, Determinante, Skalarprodukt, ...)
  2. Welche Verbindungen kenne ich zwischen diesen Objekten?
  3. Welcher Satz/welche Formel verbindet die Gegebenen mit dem Gesuchten?

Die Klausur testet nicht, ob du rechnen kannst (das kannst du). Sie testet, ob du die Brücken zwischen den Konzepten kennst und nutzen kannst.

Lies dieses Dokument an jedem der 9 Tage einmal durch. Jedes Mal wird es klarer.