3. Eigenwerte, Eigenvektoren & Diagonalisierung
⚡ PRIORITÄT 1 – Hier hast du 19/20 Punkte verloren (Aufgabe 2)!
Eigenwerte und Eigenvektoren sind eines der wichtigsten Konzepte der gesamten linearen Algebra – und gleichzeitig das Thema, das in deiner Klausur am schlechtesten lief. Aber die Grundidee ist gar nicht so kompliziert: Ein Eigenvektor ist ein Vektor, der durch eine Matrix nicht seine Richtung ändert, sondern nur gestreckt oder gestaucht wird. Der Faktor, um den er gestreckt wird, heißt Eigenwert. Wenn du zum Beispiel eine Spiegelungsmatrix hast, dann bleibt ein Vektor, der genau auf der Spiegelachse liegt, unverändert – er hat den Eigenwert 1. Ein Vektor senkrecht dazu wird umgeklappt – er hat den Eigenwert −1.
Eigenwerte findest du, indem du das charakteristische Polynom berechnest – das ist $\det(A - \lambda I)$ – und dessen Nullstellen bestimmst. Der Kniff ist, dass jede Nullstelle ein Eigenwert ist. Für jeden Eigenwert berechnest du dann den Eigenraum, also die Menge aller zugehörigen Eigenvektoren, indem du den Kern von $(A - \lambda I)$ bestimmst.
Die große Frage ist dann: Kann man eine Basis finden, die nur aus Eigenvektoren besteht? Wenn ja, ist die Matrix diagonalisierbar – und das vereinfacht alles enorm, weil eine Diagonalmatrix trivial zu potenzieren ist. Ob das klappt, hängt davon ab, ob für jeden Eigenwert genug linear unabhängige Eigenvektoren existieren. Dafür vergleichst du die algebraische Vielfachheit (wie oft der Eigenwert als Nullstelle im char. Polynom vorkommt) mit der geometrischen Vielfachheit (Dimension des Eigenraums). Stimmen beide überein, ist die Matrix diagonalisierbar.
Für die Nachklausur: In der Klausur solltest du zeigen, dass gewisse Vektoren Eigenvektoren sind, und den Defekt einer Matrix bestimmen. Übe insbesondere den Beweis, dass bei einer Matrix $M = \lambda_1 v_1 v_1^T + \ldots$ die $v_i$ tatsächlich Eigenvektoren sind – genau das kam dran!
3.1 Grundbegriffe
🎓 eLehrer-Erklärung einblenden
Beim Konzept Eigenwert gehen wir auf die Suche nach dem Einfachen: Welche Vektoren werden von der Matrix nicht aus der Bahn geworfen, sondern behalten stoisch ihre Richtung und werden lediglich skaliert?
🔗 Zugehörige Übungen:
- Übungsblatt 4, AP 2: Eigenschaften aus Matrix ablesen
- Übungsblatt 4, AP 3: Berechnung von Eigenräumen
🎓 eLehrer-Erklärung einblenden
Beim Konzept Eigenwert gehen wir auf die Suche nach dem Einfachen: Welche Vektoren werden von der Matrix nicht aus der Bahn geworfen, sondern behalten stoisch ihre Richtung und werden lediglich skaliert?
Eigenwert & Eigenvektor
🎓 eLehrer-Erklärung einblenden
Eigenvektoren sind die grundlegenden 'Rotations- oder Streckachsen' der Matrix. Wenn du einen Vektor auf diese Linien legst, tut die Matrix nichts anderes, als simple Vergrößerung / Verkleinerung.
$\lambda \in K$ ist Eigenwert von $A$ und $v \neq 0$ ist Eigenvektor zum Eigenwert $\lambda$, wenn:
$$Av = \lambda v$$
Eigenraum
🎓 eLehrer-Erklärung einblenden
Das ist einfach die komplette Menge aller Eigenvektoren zu der gleichen Skalierung (die auf derselben Geraden oder Ebene liegen), PLUS dem Nullvektor.
$$E_\lambda = \ker(A - \lambda I) = \{v \in V \mid Av = \lambda v\}$$
Der Eigenraum ist immer ein Unterraum von $V$.
Charakteristisches Polynom
🎓 eLehrer-Erklärung einblenden
Der Trick hier: Wir wollen, dass $(A - \lambda I)x = 0$ eine Lösung ungleich dem 0-Vektor hat. Das geht nur, wenn die Matrix nicht den vollen Rang hat und selbst einen Kern besitzt. Also muss ihre Determinante Null sein!
$$\chi_A(\lambda) = \det(A - \lambda I)$$
Die Eigenwerte sind genau die Nullstellen von $\chi_A$.
KLAUSURRELEVANT (Aufgabe 1.1): Bei Jordan-Normalform $J$ kann man $\chi_A$ direkt ablesen!
Wenn $J$ die Diagonaleinträge $\lambda_1, \ldots, \lambda_n$ hat:
$$\chi_A(\lambda) = \prod_{i=1}^{n} (\lambda_i - \lambda)$$
3.2 Algebraische vs. Geometrische Vielfachheit
🎓 eLehrer-Erklärung einblenden
Ein klassisches Prüfung-Stolperbeispiel. Algebraisch = 'Wie oft taucht die Lösung rechnerisch im Term auf?'. Geometrisch = 'Wie viele echte linear unabhängige Vektoren bekomme ich dafür tatsächlich raus?'.
Algebraische Vielfachheit (alg. VF)
🎓 eLehrer-Erklärung einblenden
Sagt einfach, welchen Exponenten eine Nullstelle im Polynom hat. Wenn $\lambda=2$ eine dreifache Nullstelle ist, hat sie algebraische VF 3.
= Vielfachheit von $\lambda$ als Nullstelle von $\chi_A$
Beispiel: $\chi_A(\lambda) = (\lambda - 2)^3(\lambda + 1)^2$ → alg. VF von 2 ist 3, alg. VF von -1 ist 2
Geometrische Vielfachheit (geo. VF)
🎓 eLehrer-Erklärung einblenden
Die Anzahl der linear unabhängigen Vektoren, die wir im Eigenraum finden. Die Dimension dieses Raums kann nie größer werden, als die algebraische Vielfachheit uns an Platz erlaubt.
$$\text{geo. VF}(\lambda) = \dim(\ker(A - \lambda I)) = \dim(E_\lambda)$$
= Anzahl der linear unabhängigen Eigenvektoren zum Eigenwert $\lambda$
Fundamentale Ungleichung
🎓 eLehrer-Erklärung einblenden
Diese Ungleichung entscheidet über Leben (Diagonalisierbarkeit) und Tod (Krampf mit Jordan-Normalform). Wenn $geo < alg$, dann 'fehlen' uns Vektoren, die Matrix ist defekt.
$$1 \leq \text{geo. VF}(\lambda) \leq \text{alg. VF}(\lambda)$$
KLAUSURRELEVANT (Aufgabe 1.4): Bei JNF:
- geo. VF = Anzahl der Jordan-Blöcke zum Eigenwert $\lambda$
- alg. VF = Summe der Größen aller Jordan-Blöcke zum Eigenwert $\lambda$
3.3 Diagonalisierbarkeit
🎓 eLehrer-Erklärung einblenden
Das Wunsch-Szenario: Eine Diagonalmatrix lässt sich exponentiell super einfach ausrechnen (z.B. für DGLs!), weil man nur die Diagonale potenzieren muss. Keine überkreuzten Abhängigkeiten mehr.
🔗 Zugehörige Übungen:
- Übungsblatt 5, AP 1: Ergänzung einer Eigenraumbasis
🎓 eLehrer-Erklärung einblenden
Das Wunsch-Szenario: Eine Diagonalmatrix lässt sich exponentiell super einfach ausrechnen (z.B. für DGLs!), weil man nur die Diagonale potenzieren muss. Keine überkreuzten Abhängigkeiten mehr.
$A$ ist diagonalisierbar $\iff$ eine der folgenden äquivalenten Bedingungen gilt:
- Es existiert eine Basis aus Eigenvektoren von $A$
- $\text{geo. VF}(\lambda_i) = \text{alg. VF}(\lambda_i)$ für jeden Eigenwert $\lambda_i$
- Die JNF von $A$ ist eine Diagonalmatrix (alle Jordan-Blöcke haben Größe 1)
- Das Minimalpolynom hat nur einfache Nullstellen
Achtung: Eine Matrix kann diagonalisierbar sein, auch wenn Eigenwerte mehrfache algebraische Vielfachheit haben! Entscheidend ist: geo = alg für jeden EW.
Diagonalisieren: Algorithmus
🎓 eLehrer-Erklärung einblenden
Man sucht die 'Zauber-Basis' S. Wendet man den Basiswechsel an: $S^{-1} A S$, dann verschwinden alle Nebendiagonalen und zurück bleiben nur saubere Streckfaktoren (die Eigenwerte) auf der Diagonalen.
- Berechne $\chi_A(\lambda)$ und finde alle Eigenwerte
- Berechne für jeden EW $\lambda_i$ den Eigenraum $E_{\lambda_i} = \ker(A - \lambda_i I)$
- Prüfe: geo. VF = alg. VF für alle EW?
- Wenn ja: $S = (v_1 | \cdots | v_n)$ (Eigenvektoren als Spalten)
- Dann: $A = S \cdot D \cdot S^{-1}$ mit $D = \text{diag}(\lambda_1, \ldots, \lambda_n)$
Eigenschaften von Diagonalmatrizen (Theorie-Wissen)
🎓 Wikipedia-Ergänzung: Gut zu wissen
Warum sind sie so toll? Aus Wikipedia (Diagonalmatrix):
- Multiplikation: Die Matrizenmultiplikation $D_1 \cdot D_2$ ist extrem simpel (Einträge auf der Diagonale einfach komponentenweise multiplizieren).
- Determinante: Ist einfach das Produkt der Hauptdiagonalelemente.
- Inverse: Existiert genau dann, wenn kein Diagonaleintrag $0$ ist. Sie besteht einfach aus den Kehrwerten der Diagonaleinträge.
- Diagonalmatrizen sind immer symmetrisch und normal (und bei reellen Einträgen selbstadjungiert).
- Sie bilden einen kommutativen Unterring im Ring der Matrizen.
3.4 Defekt einer Matrix
🎓 eLehrer-Erklärung einblenden
Defekt ist nur ein anderes Wort für 'Dimension des Kerns'. Wenn 0 ein Eigenwert ist, dann meint $Ax = 0x$ exakt den Kern, ergo ist die Dimension des Kerns gleich der geometrischen Vielfachheit des Eigenwerts 0.
$$\text{Defekt}(A) = \dim(\ker(A)) = n - \text{Rang}(A)$$
KLAUSURRELEVANT (Aufgabe 2.2):
Hat $A$ den Eigenwert $\lambda = 0$ mit algebraischer Vielfachheit $m \geq 1$, dann:
- $\text{Defekt}(A) = \dim(\ker(A)) = \text{geo. VF}(0)$
- Es gilt: $1 \leq \text{geo. VF}(0) \leq m$
- Also: $1 \leq \text{Defekt}(A) \leq m$
- Genauer: $\text{Rang}(A) = n - \text{Defekt}(A)$, also $n - m \leq \text{Rang}(A) \leq n - 1$
3.5 Beweis zu ONS und Eigenwerten (Klausuraufgabe 2.1!)
🎓 eLehrer-Erklärung einblenden
Genau das kam in der Nachklausur! Der Trick ist die Assoziativität: $(v_1^T)v_1 = v_1^T v_1$, was das Skalarprodukt formt und bei einem ONS exakt 1 ergibt. Andere Kreuzprodukte $v_2^T v_1$ sind 0, weil sie senkrecht aufeinander stehen. Damit löst sich die eklige Summe sofort in Rauch auf.
Gegeben: ONS $v_1, v_2, v_3 \in \mathbb{R}^n$, $M = \lambda_1 v_1 v_1^T + \lambda_2 v_2 v_2^T + \lambda_3 v_3 v_3^T$
Zu zeigen: $Mv_i = \lambda_i v_i$
Beweis:
$$Mv_1 = (\lambda_1 v_1 v_1^T + \lambda_2 v_2 v_2^T + \lambda_3 v_3 v_3^T) v_1$$
$$= \lambda_1 v_1 \underbrace{(v_1^T v_1)}_{= 1} + \lambda_2 v_2 \underbrace{(v_2^T v_1)}_{= 0} + \lambda_3 v_3 \underbrace{(v_3^T v_1)}_{= 0}$$
$$= \lambda_1 v_1$$
Schlüssel: Die ONS-Eigenschaft $v_i^T v_j = \delta_{ij}$ (Kronecker-Delta) ist der entscheidende Trick!
Analog für $v_2$ und $v_3$. $\square$
Merke: Das Produkt $v v^T$ (äußeres Produkt) ist eine $n \times n$-Matrix (Rang 1), die auf den Unterraum $\text{span}(v)$ projiziert! So eine Matrix heißt Projektionsmatrix (bis auf Normierung).
3.6 Zusammenhang: Eigenwerte und Matrixeigenschaften
🎓 eLehrer-Erklärung einblenden
Hier kann man Prof. Webers True/False-Aufgaben in Sekunden knacken: Orthogonal heißt alle EW haben Betrag 1. Symmetrisch heißt alle EW sind reell. Nilpotent heißt, die Matrix zerschießt sich selbst, also ist jeder EW zwingend 0.
| Eigenschaft | Bedingung an Eigenwerte | ||
|---|---|---|---|
| $A$ invertierbar | Alle $\lambda_i \neq 0$ | ||
| $\det(A)$ | $= \prod \lambda_i$ | ||
| $\text{Spur}(A)$ | $= \sum \lambda_i$ | ||
| $A$ symmetrisch ($A = A^T$) | Alle Eigenwerte reell | ||
| $A$ positiv definit | Alle $\lambda_i > 0$ | ||
| $A$ orthogonal | Alle $ | \lambda_i | = 1$ |
| $A^k$ hat Eigenwerte | $\lambda_i^k$ | ||
| $A$ nilpotent | Alle $\lambda_i = 0$ | ||
| $A$ idempotent ($A^2 = A$) | $\lambda_i \in \{0, 1\}$ |