📐 LINA2 Lernhilfe Lineare Algebra II – FU Berlin WiSe 2025/26

5. Jordan-Normalform, Minimalpolynom & Cayley-Hamilton

PRIORITÄT 2 – Hier hast du 27/50 Punkte verloren (Aufgaben 1 + 4)!

💡 Worum geht es hier? – Einfach erklärt

Nicht jede Matrix lässt sich diagonalisieren – manchmal gibt es einfach nicht genug Eigenvektoren. Für solche Matrizen gibt es die Jordan-Normalform (JNF): eine fast-diagonale Struktur, in der auf der Hauptdiagonale die Eigenwerte stehen und direkt darüber manchmal Einsen. Diese Einsen zeigen an, wo ein Eigenwert „nicht genug" Eigenvektoren hat. Je größer ein Jordan-Block ist, desto weiter entfernt ist die Matrix vom Diagonalisierbaren.

Die JNF ist eine Art Röntgenbild der Matrix. Aus ihr kannst du sofort fast alles ablesen: Eigenwerte (die Diagonaleinträge), algebraische Vielfachheiten (Summe der Blockgrößen pro Eigenwert), geometrische Vielfachheiten (Anzahl der Blöcke pro Eigenwert), das Minimalpolynom, die Determinante und ob die Matrix diagonalisierbar ist. Es lohnt sich enorm, die Tabelle auf dieser Seite sicher zu beherrschen.

Das Minimalpolynom ist das kleinste Polynom, das die Matrix zu Null macht – wenn du es in die Matrix einsetzt, kommt die Nullmatrix raus. Es hängt eng mit der JNF zusammen: Der Exponent jedes Eigenwerts im Minimalpolynom entspricht der Größe des größten Jordan-Blocks zu diesem Eigenwert. Der Satz von Cayley-Hamilton sagt, dass jede Matrix ihr eigenes charakteristisches Polynom erfüllt – das heißt, wenn du das char. Polynom in die Matrix einsetzt, kommt immer Null raus.

Das Matrixexponential $\exp(A)$ ist das Pendant zur Exponentialfunktion für Matrizen und taucht bei Differentialgleichungen auf: Die Lösung von $\dot{x}(t) = Ax(t)$ ist $x(t) = \exp(tA) x_0$. Für die Berechnung hilft es, zu wissen, ob die Matrix idempotent ist ($A^2 = A$), denn dann vereinfacht sich die Reihe drastisch.

Für die Nachklausur: Aufgabe 1 (JNF ablesen: 19/30) und Aufgabe 4 (Matrixexponential: 4/20) machten zusammen 50 Punkte aus. In Aufgabe 1 musst du die JNF blitzschnell „lesen" können – char. Polynom, Minimalpolynom, Eigenräume, Determinante, alles direkt ablesen. In Aufgabe 4 war der Schlüssel Cayley-Hamilton: Zeige $A^2 = A$, dann per Induktion $A^m = A$, und damit vereinfacht sich $\exp(A) = I + (e-1)A$. Übe beide Aufgabentypen, bis sie sitzen!

5.1 Jordan-Normalform (JNF)

🎓 eLehrer-Erklärung einblenden

Hier wird's manchmal unübersichtlich. Die JNF ist das Notpflaster der Linearen Algebra, wenn eine Matrix einfach nicht genug Eigenvektoren hat, um sie sauber zu diagonalisieren. Wir retten, was zu retten ist.

🔗 Zugehörige Übungen:
- Übungsblatt 7, AP 1: Vorbereitungen auf den JNF-Existenzsatz
- Übungsblatt 7, AP 4: Berechnung einer Jordan-Normalform

🎓 eLehrer-Erklärung einblenden

Hier wird's manchmal unübersichtlich. Die JNF ist das Notpflaster der Linearen Algebra, wenn eine Matrix einfach nicht genug Eigenvektoren hat, um sie sauber zu diagonalisieren. Wir retten, was zu retten ist.

Jordan-Block

🎓 eLehrer-Erklärung einblenden

Warum stehen da Einsen über der Diagonale? Sie bedeuten geometrisch: Die Matrix greift den Vektor, und anstatt ihn nur zu strecken, schubst sie ihn anteilig in die Richtung des vorherigen Vektors. Das erzeugt eine Verkettung (Jordan-Kette).

Ein Jordan-Block der Größe $k$ zum Eigenwert $\lambda$:

$$J_k(\lambda) = \begin{pmatrix} \lambda & 1 & 0 & \cdots & 0 \\ 0 & \lambda & 1 & \cdots & 0 \\ \vdots & & \ddots & \ddots & \vdots \\ 0 & \cdots & & \lambda & 1 \\ 0 & \cdots & & 0 & \lambda \end{pmatrix}$$

Jordan-Normalform

🎓 eLehrer-Erklärung einblenden

Ein hübscher Block-Baukasten. Wir sortieren die Matrix so um, dass die Blöcke als geschlossene Ketten-Einheiten auf der Diagonale rumhängen.

Jede Matrix $A \in \mathbb{C}^{n \times n}$ ist ähnlich zu einer Blockdiagonalmatrix aus Jordan-Blöcken:

$$J = \begin{pmatrix} J_{k_1}(\lambda_1) & & \\ & J_{k_2}(\lambda_2) & \\ & & \ddots \end{pmatrix}$$

Es gibt eine invertierbare Matrix $V$ mit $A = VJV^{-1}$.

Was man aus der JNF ablesen kann

🎓 eLehrer-Erklärung einblenden

Anzahl der Blöcke pro Eigenwert = Geometrische Vielfachheit. Summe der Block-Dimensionen = Algebraische Vielfachheit. Det(A) = Alles auf der Diagonale multiplizieren. Spur = Alles addieren.

InformationWie ablesen
EigenwerteDiagonaleinträge von $J$
Algebraische VF von $\lambda$Summe der Größen aller Blöcke zu $\lambda$
Geometrische VF von $\lambda$Anzahl der Blöcke zu $\lambda$
Char. Polynom$\chi_A(\lambda) = \prod_i (\lambda_i - \lambda)$ aus Diag.
MinimalpolynomProdukt $\prod (\lambda - \lambda_i)^{m_i}$ wobei $m_i$ = Größe des größten Blocks zu $\lambda_i$
Diagonalisierbar?Ja $\iff$ alle Blöcke haben Größe 1
DeterminanteProdukt der Diagonaleinträge

5.2 Klausuraufgabe 1 – Analyse der JNF

🎓 eLehrer-Erklärung einblenden

Der absolute Klassiker. Ein 2x2 Block und zwei 1x1 Blöcke, alle zu Eigenwert -1. Alles, aber wirklich alles, lässt sich durch Hinsehen lösen.

Gegeben:

$$J = \begin{pmatrix} 1 & 0 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 \\ 0 & 0 & -1 & 1 & 0 \\ 0 & 0 & 0 & -1 & 0 \\ 0 & 0 & 0 & 0 & -1 \end{pmatrix}$$

Struktur:

1.1: Charakteristisches Polynom

🎓 eLehrer-Erklärung einblenden

Bestimmt sich durch die gesamte Diagonale: Da die -1 dort genau viermal steht, ist das Polynom simpel $(\lambda - (-1))^4$.

$$\chi_A(\lambda) = (\lambda - 1)^2 (\lambda + 1)^3$$

(alg. VF von 1 ist 2, alg. VF von -1 ist 3)

1.2: Minimalpolynom

🎓 eLehrer-Erklärung einblenden

Bestimmt sich nur durch den GRÖSSTEN Block pro Eigenwert. Da der größte Block 2x2 ist, hat die Klammer den Exponenten 2.

$$\mu_A(\lambda) = (\lambda - 1)(\lambda + 1)^2$$

Begründung: Der größte Jordan-Block zu EW 1 hat Größe 1, der größte zu EW -1 hat Größe 2.

1.3: Eigenraum zum Eigenwert -1

🎓 eLehrer-Erklärung einblenden

Wie groß ist der Eigenraum (geo. VF)? So viele linear unabhängige Eigenvektoren wie wir Jordan Blöcke haben. Bei 3 Blöcken ist die Dimension 3.

Die Eigenvektoren zum EW -1 sind die Spalten von $V$, die dem Anfang jedes Jordan-Blocks zu -1 entsprechen.

$E_{-1} = \text{span}(v_3, v_5)$ (Spalte 3 und 5 von $V$, da Block 3 bei Spalte 3 beginnt und Block 4 bei Spalte 5)

Begründung: $Av_3 = -v_3$ und $Av_5 = -v_5$ (aus $AV = VJ$ und der Struktur von $J$)

1.4: Geometrische Vielfachheiten

🎓 eLehrer-Erklärung einblenden

Geo = 3 (wegen 3 Blöcken). Alg = 4 (da die Nullstelle 4-mal auf der Diagonale vorkommt).

1.5: Hauptvektor erster Stufe

🎓 eLehrer-Erklärung einblenden

Ein Vektor der 'zweiten Reihe'. Er wird durch die Matrix erst in den Eigenvektor reingerutscht und braucht zwei Zyklen $(A-\lambda I)^2$, um komplett die Null zu treffen.

$v_4$ ist ein Hauptvektor erster Stufe zum EW $-1$ (auch verallgemeinerter Eigenvektor).

Er erfüllt: $(A - (-1)I)v_4 = (A + I)v_4 = v_3 \neq 0$, aber $(A + I)^2 v_4 = 0$.

1.6: Determinante

🎓 eLehrer-Erklärung einblenden

Einfach ALLE Diagonaleinträge multiplizieren: $(-1) \cdot (-1) \cdot (-1) \cdot (-1) = 1$.

$$\det(A) = \det(VJV^{-1}) = \det(V)\det(J)\det(V^{-1}) = \det(J)$$

$$\det(J) = 1 \cdot 1 \cdot (-1) \cdot (-1) \cdot (-1) = -1$$

1.7: Volumentreu?

🎓 eLehrer-Erklärung einblenden

Ja! Wenn $|\det(A)| = 1$, bleibt das Volumen im Raum unverändert. Die Matrix quetscht das Volumen in der einen Richtung, dehnt es aber exakt kompensierend in einer anderen aus.

$|{\det(A)}| = |-1| = 1$ → Ja, die Abbildung ist volumentreu.

1.8: Orientierungserhaltend?

🎓 eLehrer-Erklärung einblenden

Determinante ist +1, also bleibt das räumliche Koordinatensystem wie es ist ('Rechts bleibt Rechts'). Bei -1 wäre das Volumen gleich geblieben, aber der Raum wäre invertiert / gespiegelt worden.

$\det(A) = -1 < 0$ → Nein, die Abbildung ist nicht orientierungserhaltend.

Begründung: Eine lineare Abbildung ist orientierungserhaltend $\iff \det(A) > 0$.

1.9: Kann $A$ symmetrisch sein?

🎓 eLehrer-Erklärung einblenden

Der Lieblingstrick für Zusatzaufgaben. Gemäß dem Spektralsatz sind symmetrische reelle Matrizen IMMER komplett diagonalisierbar! A hat aber einen 2er Jordanblock (nicht diagonalisierbar), also ist es völlig unmöglich, dass sie ursprünglich symmetrisch war!

Nein.

Begründung: Symmetrische reelle Matrizen sind immer diagonalisierbar (Spektralsatz). Aber $A$ hat einen Jordan-Block der Größe 2 (zu EW -1), ist also nicht diagonalisierbar. Widerspruch!

5.3 Haupträume und Hauptvektoren

🎓 eLehrer-Erklärung einblenden

Wenn dir echte Eigenvektoren fehlen, nimmst du Hauptvektoren als Lückenfüller für deine Basis. Das sind Vektoren, die eine Reaktionskette bilden.

Hauptraum

🎓 eLehrer-Erklärung einblenden

Zusammenfassung aller Hauptvektoren, die zu einem Eigenwert gehören. Jeder Eigenraum wohnt im Inneren seines Hauptraumes.

$$H_\lambda = \ker(A - \lambda I)^{m_\lambda}$$

wobei $m_\lambda$ = algebraische Vielfachheit von $\lambda$.

Hauptvektor der Stufe $k$

🎓 eLehrer-Erklärung einblenden

Er wird durch die Anwendung von $(A - \lambda I)$ erst auf den k-1'ten Vektor verwandelt, dann auf den k-2'ten... und landet exakt nach der k-ten Anwendung im Nullraum.

$v$ ist Hauptvektor der Stufe $k$ zum EW $\lambda$, wenn:

$$(A - \lambda I)^k v = 0 \quad \text{aber} \quad (A - \lambda I)^{k-1} v \neq 0$$

Achtung Notation: Manchmal wird "Hauptvektor erster Stufe" für den verallgemeinerten Eigenvektor mit $(A-\lambda I)v \neq 0$ aber $(A-\lambda I)^2 v = 0$ verwendet. In der Klausur war $v_4$ so einer.

5.4 Minimalpolynom

🎓 eLehrer-Erklärung einblenden

Das ist das 'effizienteste' Polynom. Wenn du in dieses Polynom deine Matrix A einsetzt, kommt am Ende garantiert die Nullmatrix heraus.

🔗 Zugehörige Übungen:
- Übungsblatt 8, AP 1: Nullstellen von Polynomen
- Übungsblatt 8, AP 2: Begleitmatrix eines Polynoms

🎓 eLehrer-Erklärung einblenden

Das ist das 'effizienteste' Polynom. Wenn du in dieses Polynom deine Matrix A einsetzt, kommt am Ende garantiert die Nullmatrix heraus.

Definition

🎓 eLehrer-Erklärung einblenden

Die klassische Taylorreihe der Schul-e-Funktion, nur eben mit Matrizen. Bei Jordan-Blöcken hat das die geniale Eigenschaft, dass die Taylorreihe durch das 'nilpotente' Verhalten der 1en rasant abbricht!

Das Minimalpolynom $\mu_A$ ist das normierte Polynom kleinsten Grades mit $\mu_A(A) = 0$.

Eigenschaften

🎓 eLehrer-Erklärung einblenden

Bei einer strikten Diagonalmatrix ist das Minimalpolynom absolut minimal, da jede Nullstelle nur Potenz 1 braucht, um die Matrix zu löschen.

Berechnung ohne JNF

🎓 eLehrer-Erklärung einblenden

Man rechnet es meist iterativ aus, indem man Terme hochpotenziert $(A-\lambda I)$, bis tatsächlich die Nullmatrix entsteht.

  1. Probiere Polynome aufsteigenden Grades, die durch $\chi_A$ teilen
  2. Teste ob $p(A) = 0$

5.5 Satz von Cayley-Hamilton

🎓 eLehrer-Erklärung einblenden

Ein gigantisch starkes Matrix-Konzept. 'Jede Matrix ist Nullstelle ihres eigenen char. Polynoms'. Heißt: A reingesteckt in $\chi(X)$ ergibt IMMER null.

🔗 Zugehörige Übungen:
- Übungsblatt 7, AP 3: Cayley-Hamilton

🎓 eLehrer-Erklärung einblenden

Ein gigantisch starkes Matrix-Konzept. 'Jede Matrix ist Nullstelle ihres eigenen char. Polynoms'. Heißt: A reingesteckt in $\chi(X)$ ergibt IMMER null.

Satz: Jede Matrix erfüllt ihr eigenes charakteristisches Polynom:
$$\chi_A(A) = 0$$

Wichtige Folgerungen (Wissen für die Theorie/Klausur)

🎓 Wikipedia-Ergänzung: Zusammenhänge und Folgerungen

Nach Wikipedia liefert Cayley-Hamilton sehr nützliche Eigenschaften:

  • Die Potenzen einer quadratischen Matrix spannen einen Untervektorraum auf, der höchstens die Dimension der Zeilenzahl $n$ hat.
  • Die Inverse einer invertierbaren Matrix ist als Linearkombination der Potenzen der Matrix (mit Exponenten kleiner als $n$) darstellbar.
  • Das Minimalpolynom einer Matrix teilt ihr charakteristisches Polynom.
  • Eine quadratische Matrix mit $n$-fachem Eigenwert Null ist nilpotent, da ihr char. Polynom die Form $\lambda^n$ ist.
  • Man kann höhere Potenzen von Matrizen einfach durch Umstellen des charakteristischen Polynoms berechnen (wie in Aufgabe 4).

Anwendung (Klausuraufgabe 4!)

🎓 eLehrer-Erklärung einblenden

Extrem nützlich, um Matrixpotenzen zu kürzen! Wenn $A^2 - A = 0$ gilt, wie in der Klausur, dann weiß man, dass unendlich hohe Potenzen wie $A^{100}$ einfach auf A kollabieren. Kein ewiges Multiplizieren!

Gegeben: $A$ diagonalisierbar mit Eigenwerten $\lambda_1 = 0$ und $\lambda_2 = 1$.

4.1: Minimalpolynom

$$\mu_A(\lambda) = \lambda(\lambda - 1) = \lambda^2 - \lambda$$

(Da $A$ diagonalisierbar → alle Jordan-Blöcke Größe 1 → Minimalpolynom hat nur einfache Nullstellen)

4.2: $A^2 = A$

Cayley-Hamilton: $\chi_A(A) = 0$. Da $\mu_A | \chi_A$ und $\mu_A(A) = 0$:

$$A^2 - A = 0 \implies A^2 = A$$

(Formal: $\mu_A(\lambda) = \lambda^2 - \lambda$, also $\mu_A(A) = A^2 - A = 0$)

4.3: $A^m = A$ für $m \geq 1$ (Induktion)

Induktionsanfang: $m = 1$: $A^1 = A$ ✓

Induktionsschritt: Angenommen $A^m = A$ für ein $m \geq 1$. Dann:

$$A^{m+1} = A^m \cdot A = A \cdot A = A^2 = A$$

(wobei wir im letzten Schritt $A^2 = A$ aus 4.2 verwenden)

Also gilt $A^{m+1} = A$. $\square$

4.4: Matrixexponential

$$\exp(A) = \sum_{k=0}^{\infty} \frac{A^k}{k!} = \frac{A^0}{0!} + \sum_{k=1}^{\infty} \frac{A^k}{k!}$$

$$= I + \sum_{k=1}^{\infty} \frac{A}{k!} \quad \text{(da } A^k = A \text{ für } k \geq 1\text{)}$$

$$= I + A \sum_{k=1}^{\infty} \frac{1}{k!} = I + A\left(\sum_{k=0}^{\infty} \frac{1}{k!} - 1\right) = I + A(e - 1)$$

$$\boxed{\exp(A) = I + (e-1)A}$$

5.6 Matrixexponential – Allgemein

🎓 eLehrer-Erklärung einblenden

Wofür das alles in der Praxis da ist: Viele Differentialgleichungen von Schwingungen in der Physik hängen an $y' = Ay$. Ein Matrix-Exponential löst diese Naturgesetze auf.

Definition

🎓 eLehrer-Erklärung einblenden

Die klassische Taylorreihe der Schul-e-Funktion, nur eben mit Matrizen. Bei Jordan-Blöcken hat das die geniale Eigenschaft, dass die Taylorreihe durch das 'nilpotente' Verhalten der 1en rasant abbricht!

$$\exp(A) = \sum_{k=0}^{\infty} \frac{A^k}{k!} = I + A + \frac{A^2}{2!} + \frac{A^3}{3!} + \cdots$$

Rechenregeln

🎓 eLehrer-Erklärung einblenden

Höchste Vorsicht: $e^{A+B}$ ist NUR dann aufteilbar in $e^A \cdot e^B$, wenn die Matrizen vertauschen ($A \cdot B = B \cdot A$).

Für Diagonalmatrizen

🎓 eLehrer-Erklärung einblenden

Zuckerschlecken! Man packt einfach das $e^\lambda$ an jeden Diagonaleintrag. Komplett triviale Berechnung.

$$\exp\left(\begin{pmatrix} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{pmatrix}\right) = \begin{pmatrix} e^{\lambda_1} & & \\ & \ddots & \\ & & e^{\lambda_n} \end{pmatrix}$$

Anwendung: DGL

🎓 eLehrer-Erklärung einblenden

Löst dir deine linearen DGL-Systeme auf den Punkt durch einfaches Einsetzen von $y(t) = e^{t \cdot A} y(0)$.

Die Lösung von $\dot{x}(t) = Ax(t)$ mit $x(0) = x_0$ ist:

$$x(t) = \exp(tA) \cdot x_0$$