📐 LINA2 Lernhilfe Lineare Algebra II – FU Berlin WiSe 2025/26

Originale Checklisten

Checkliste: Verstehen und Anwenden

💡 Erklärung anzeigen

💡 Erklärung anzeigen

Ein Eigenvektor einer Matrix $A$ beschreibt eine Richtung im Raum, die durch die Anwendung von $A$ nicht gedreht, sondern höchstens in ihrer Länge (also gestreckt oder gestaucht) verändert wird. Der Eigenwert $\lambda$ ist dieser Streckfaktor ($Av = \lambda v$). Ist $\lambda$ negativ, wandert der Vektor in die entgegengesetzte Richtung (Spiegelung); ist $\lambda=0$, kollabiert die Richtung (Projektion).

💡 Erklärung anzeigen

💡 Erklärung anzeigen

Bei (markovschen) reversiblen Systemen (die dem "Detailed Balance"-Kriterium gehorchen) besteht eine enge Beziehung zwischen den Links- und Rechtseigenvektoren. Der stationäre Zustand (oder das Gleichgewichtsmaß) agiert als Vermittler: Die Matrix ist symmetrisierbar (über eine Diagonalmatrix der stationären Verteilung), weswegen Linkseigenvektoren simpel in Rechtseigenvektoren umgerechnet werden können und alle Eigenwerte zwangsläufig reell sind.

💡 Erklärung anzeigen

Das System linearer homogener Differentialgleichungen $\dot{y}(t) = A y(t)$ mit Anfangsbedingung $y(0) = y_0$ wird durch die Matrixexponentialfunktion gelöst: $y(t) = e^{At} y_0$. Es handelt sich um die exakte Verallgemeinerung der eindimensionalen DGL $f'(t) = a f(t) \Rightarrow f(t) = c \cdot e^{at}$. Die Matrix $A$ nimmt dabei den Platz des Skalars $a$ ein.

💡 Erklärung anzeigen

💡 Erklärung anzeigen

Die kompletten Symmetrien eines Systems (z.B. eines Quadrats) bilden mathematisch eine Gruppe. Von einer "Symmetriebrechung" spricht man, wenn das System deformiert wird (z.B. vom Quadrat zum Rechteck gezogen). Das neue Objekt verliert einige Symmetrien (z.B. 90°-Drehungen). Die verbliebenen Symmetrien des deformierten Zustandes bilden dabei immer eine Untergruppe der ursprünglichen großen Symmetriegruppe.

💡 Erklärung anzeigen

Das Skalarprodukt $\langle v|w \rangle$ stattet einen abstrakten Vektorraum mit einem Geometriebegriff aus.

Länge (Norm): $\|v\| = \sqrt{\langle v|v \rangle}$.

Winkel: Der Winkel $\theta$ zwischen reellen Vektoren ist definiert über $\cos(\theta) = \frac{\langle v|w \rangle}{\|v\| \|w\|}$. Wenn das Skalarprodukt $0$ ist, spricht man von Orthogonalität (Rechter Winkel, 90°).


Checkliste: Algorithmen

💡 Erklärung anzeigen

Mit dem Bild-Kern-Algorithmus (oder Gauß-Verfahren) formt man die erweiterte Koeffizientenmatrix auf reduzierte Zeilenstufenform um. Die Dimension des Lösungsraums (Kern) entspricht der Anzahl an Nullzeilen bzw. Spalten ohne Pivot-Element. Die allgemeine Lösung setzt sich immer zusammen aus: $\vec{x}_{allg} = \vec{x}_{partikulär} + \vec{x}_{homogen}$ ($\vec{x}_{homogen}$ ist die Linearkombination der Basisvektoren des Kerns).

💡 Erklärung anzeigen

Für ein überbestimmtes System $Ax = b$ ohne exakte Lösung sucht man den Parametervektor $x$, der den Fehler minimiert (Methode der kleinsten Quadrate). Man multipliziert mit $A^T$ und löst das neue System (die "Normalengleichung"): $A^T A x = A^T b$. Dieses ist stets lösbar.

💡 Erklärung anzeigen

Man schreibt die Matrix $A$ und die Einheitsmatrix $I$ nebeneinander: $(A | I)$. Durch Zeilenumformungen wandelt man die linke Seite in die Einheitsmatrix um. Die rechte Seite transformiert sich dabei automatisch zur inversen Matrix $A^{-1}$: $(I | A^{-1})$.

💡 Erklärung anzeigen

Nachdem man einen Eigenwert $\lambda_i$ gefunden hat, sucht man den Raum aller Vektoren $v$, für die $(A - \lambda_i I)v = 0$ gilt. Das macht man einfach, indem man das homogene LGS zur Matrix $(A-\lambda_i I)$ löst (Gauß-Algorithmus). Der berechnete Kern ist exakt der Eigenraum.

💡 Erklärung anzeigen

Um die Eigenwerte zu erhalten, sucht man Nullstellen des charakteristischen Polynoms: $\chi_A(\lambda) = \det(A-\lambda I) = 0$.

Bei quadratischen Termen: Nutze $pq$-Formel oder Mitternachtsformel.

Ab Grad 3: Eine Nullstelle raten (oft 1, 0 oder -1), und danach das Polynom durch $(\lambda - \lambda_{geraten})$ per Polynomdivision abspalten. Das Horner-Schema bietet dafür eine rechenarme Schreibweise ohne $x$'se aufzuschreiben.

💡 Erklärung anzeigen

💡 Erklärung anzeigen

Dient der Bestimmung des größten gemeinsamen Teilers (ggT) zweier Polynome. Man teilt (Polynomdivision) das größere Polynom durch das kleinere und berechnet den Rest. Im nächsten Schritt teilt man das kleinere Polynom durch diesen Rest. Das wiederholt man, bis der Rest $= 0$ ist. Der letzte nicht-verschwindende Rest (normiert) ist der ggT.

💡 Erklärung anzeigen

Ist eine Menge von Distanzen zwischen Knoten gegeben, will man die relativen Koordinaten rekapitulieren. Man wandelt die Abstandsmatrix über Multidimensional Scaling (oder Torgerson-Borg-Verfahren) in eine Skalarproduktmatrix (Gram-Matrix) um. Da eine Gram-Matrix positiv semidefinit ist, kann sie per Eigenwertzerlegung in Koordinaten faktoriert werden (Spektralzerlegung der Gram-Matrix).

💡 Erklärung anzeigen

Man spaltet die Matrix $A$ in einen diagonalisierbaren ($D$) und nilpotenten ($N$) Teil auf, die miteinander kommutieren. Dann gilt $e^{D+N} = e^D e^N$. $e^D$ rechnet man direkt auf der Diagonale. Für $e^N$ nutzt man die Taylorreihe ($I + N + N^2 / 2 + \dots$), welche nach endlich vielen Termen abbricht, da $N^k = 0$.

💡 Erklärung anzeigen

Aus einer beliebigen Basis gewinnt man eine Orthonormalbasis. Der erste Vektor wird einfach der Länge nach normiert. Für jeden weiteren Vektor $v_k$ zieht man iterativ seine Projektion(en) auf alle bisherigen neuen Basisvektoren $e_j$ ($j

💡 Erklärung anzeigen

Ist eine Orthonormalbasis $e_1, \dots, e_k$ eines Unterraums gegeben, so kann die orthogonale Projektion $P$ auf diesen Raum berechnet werden als die Summe der äußeren ("dyadischen") Produkte der Basisvektoren: $P = \sum_{i=1}^k e_i e_i^T$. Alternativ (als Operator), wandelt man einen Vektor $v$ nach Formel aus: $P(v) = \sum \langle e_i | v \rangle e_i$.

💡 Erklärung anzeigen

Ist eine lineare Abbildung $T$ und eine Orthonormalbasis $\{e_j\}$ (ONS) gegeben, so stehen die Einträge der darstellenden Matrix $A$ in Zeile $i$ und Spalte $j$ (Galerkin-Einträge). Sie berechnen sich durch Skalarprodukt-Auswertung: $A_{ij} = \langle e_i | T(e_j) \rangle$. Dies nutzt die Eigenschaft der ONS aus.


Checkliste: Beweisen

💡 Erklärung anzeigen

Geometrische Beziehungen (z.B. Orthogonalität, Drehung) lassen sich extrem effizient in Koordinaten der Form $z = a + ib$ formulieren.

Rotation: Eine Drehung um Winkel $\alpha$ entspricht einer Multiplikation mit $e^{i\alpha}$.

Orthogonalität/Strecken: Wenn der Vektor (als diff $z_2-z_1$) von der Division zweier Vektoren eine rein imaginäre Zahl liefert, sind sie senkrecht zueinander.

💡 Erklärung anzeigen

(Dies schließt Standardbeweise zur Eigenwerttheorie und Linearen Unabhängigkeit ein. Typischer Ansatz: Setze $c_1 v_1 + \dots = 0$ und wende $A$ darauf an, um Koeffizienten auf Null zu zwingen).

💡 Erklärung anzeigen

Bei „Wahr/Falsch“-Aufgaben ist rigorose Genauigkeit gefragt.

Wahr: Lässt sich oft durch Matrixeigenschaften abkürzen (z.B. Rang, Determinantenregeln wie $\det(AB)=\det(B)\det(A)$).

Falsch: Ein einziges, kurzes Gegenbeispiel (oft reicht die $2\times 2$ Einheits/Nullmatrix, oder eine simple Projektionsmatrix aus Nullen und Einsen) reicht völlig aus, um die Aussage zu widerlegen.

💡 Erklärung anzeigen

Zieht oft auf formelle Verifikation wie „Unterraum-Kriterium prüfen“, „Nachweise von Gruppenaxiomen“ ab. Immer Schritt für Schritt die Axiome runterbrechen.