Diagonalisieren einer Matrix < Matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 18:24 Di 23.02.2010 | Autor: | Kalka |
Hallo Zusammen,
zur Zeit übe ich ein wenig das diagonalisieren von Matrizen, allerdings frage ich mich immer wieder wozu man das eigentlich macht.
Man bekommt ja immer eine Matrix, also eine Abbildung, und soll diese diagonalisieren. Dann erhält man eine nette Diagonal-Matrix. Dazu kann man dann noch über die Eigenwerte die Eigenvektoren darstellen. Diese entsprechen dann einer neuen Basis für die Diagonalmatrix.
So habe ich das zumindest im Kopf, bitte verbessert mich wenn das nicht korrekt ist.
Weiter habe ich mir dann folgende Aufgabe gestellt. Ich habe eine Lineare Abbildung A, mit welcher ein Punkt p multipliziert wird. Nun wollte ich die Matrix A diagonalisieren und die Eigenvektoren bestimmen.
Ich hatte jetzt nämlich gedacht, ich kann den Punkt p auch zur Basis der Diagonalmatrix darstellen, mit der Diagonalmatrixmultiplizieren und dann erhalte ich den selben Punkt.
Etwas wirr mit Worten, hier einmal ein paar Rechnungen...
[mm] A=\pmat{ 1 & 3 \\ 3 & 1 }
[/mm]
Eigenwerte bestimmen über [mm] det(A-\lambda*E) [/mm] = 0
=> [mm] \lambda_{1}=4 [/mm] ; [mm] \lambda_{2}=2;
[/mm]
Dann die Eigenvektoren bestimmen, sie müssten folgendermßen aussehen (bin mir ziemlich sicher)
[mm] \vec{v_1}=\vektor{1\\ 1}*\frac{1}{\wurzel{2}}
[/mm]
[mm] \vec{v_2}=\vektor{1\\ -1}*\frac{1}{\wurzel{2}}
[/mm]
Meine Diagonalmatrix sieht folgendermaßen aus:
[mm] D=\pmat{ 4 & 0 \\ 0 & 2 }
[/mm]
Jetzt habe ich mir einen Punkt p genommen und ihn mit A multipliziert.
[mm] A*\vec{p}=\pmat{ 1 & 3 \\ 3 & 1 }*\vektor{1\\ 1} [/mm] = [mm] \vektor{4\\ 4}
[/mm]
Jetztkam meine Überlegung - ichdachte, hierzuwären diese diagonalmatrizen gut:
[mm] \vec{k}=p_{x}*\vec{v_1}+p_{y}*\vec{v_2}
[/mm]
[mm] \vec{k}=\vektor{1\\ 1}*\frac{1}{\wurzel{2}}+\vektor{1\\ -1}*\frac{1}{\wurzel{2}}
[/mm]
[mm] \vec{k}=\vektor{\wurzel{2} \\ 0}
[/mm]
Und nun wollte ich die Rechnung mit D durchführen (anstatt mit A):
[mm] D*\vec{k}=\pmat{ 4 & 0 \\ 0 & 2 }*\vektor{\wurzel{2} \\ 0}=\vektor{4\wurzel{2} \\ 0}
[/mm]
Und das ist ja nicht das gleiche ergebnis wie in der Rechnung [mm] A*\vec{p}, [/mm] was ich eigentlich vermutet hatte.
Wo habe ich hier meinen Denkfehler? Sind diese diagonalisierten Matrizen nicht dazu da, um eben die Multiplikation mithilfe anderer "Basen" durchzuführen?
Und wenn nicht, wozu genau werden sie dann genutzt'?
Viele Grüße,
Thomas
|
|
|
|
Hallo,
> zur Zeit übe ich ein wenig das diagonalisieren von
> Matrizen, allerdings frage ich mich immer wieder wozu man
> das eigentlich macht.
Du erläuterst es im Laufe deines Posts richtig - man möchte eine neue Basis des vorgegebenen Vektorraums finden, unter der die lineare Abbildung "sehr einfach" ist; und "sehr einfach" wird so verstanden, dass jede Komponenten des Eingangsvektors durch die lineare Abbildung nur mit einem bestimmten Skalar multipliziert wird.
> Man bekommt ja immer eine Matrix, also eine Abbildung, und
> soll diese diagonalisieren. Dann erhält man eine nette
> Diagonal-Matrix. Dazu kann man dann noch über die
> Eigenwerte die Eigenvektoren darstellen. Diese entsprechen
> dann einer neuen Basis für die Diagonalmatrix.
"Dazu kann man dann noch über die Eigenwerte die Eigenvektoren erstellen" - oft muss man die Eigenvektoren vor dem Diagonalisieren schon bestimmen, um zu testen, ob eine Matrix überhaupt diagonalisierbar ist.
> So habe ich das zumindest im Kopf, bitte verbessert mich
> wenn das nicht korrekt ist.
>
> Weiter habe ich mir dann folgende Aufgabe gestellt. Ich
> habe eine Lineare Abbildung A, mit welcher ein Punkt p
> multipliziert wird. Nun wollte ich die Matrix A
> diagonalisieren und die Eigenvektoren bestimmen.
>
> Ich hatte jetzt nämlich gedacht, ich kann den Punkt p auch
> zur Basis der Diagonalmatrix darstellen, mit der
> Diagonalmatrixmultiplizieren und dann erhalte ich den
> selben Punkt.
Genau, das ist richtig. Der "Ergebnispunkt" muss dann allerdings wieder in der Ausgangsbasis dargestellt werden!
> Etwas wirr mit Worten, hier einmal ein paar Rechnungen...
>
>
> [mm]A=\pmat{ 1 & 3 \\ 3 & 1 }[/mm]
>
> Eigenwerte bestimmen über [mm]det(A-\lambda*E)[/mm] = 0
> => [mm]\lambda_{1}=4[/mm] ; [mm]\lambda_{2}=2;[/mm]
Wahrscheinlich hast du dich hier nur vertippt - der zweite Eigenwert lautet -2.
> Dann die Eigenvektoren bestimmen, sie müssten
> folgendermßen aussehen (bin mir ziemlich sicher)
>
> [mm]\vec{v_1}=\vektor{1\\ 1}*\frac{1}{\wurzel{2}}[/mm]
>
>
> [mm]\vec{v_2}=\vektor{1\\ -1}*\frac{1}{\wurzel{2}}[/mm]
Aber warum so kompliziert? Es geht doch auch
[mm] $\vec{v_1} [/mm] = [mm] \vektor{1\\1}$
[/mm]
[mm] $\vec{v_2} [/mm] = [mm] \vektor{1\\-1}$
[/mm]
> Meine Diagonalmatrix sieht folgendermaßen aus:
>
> [mm]D=\pmat{ 4 & 0 \\ 0 & 2 }[/mm]
Auch hier:
$D = [mm] \pmat{4 & 0 \\ 0 & -2}$
[/mm]
Der Rest, den du tust, entspricht leider wenig dem, was man zu tun hätte.
Die Basis, unter der A zur Diagonalmatrix wird, ist die Basis $B = [mm] (v_{1},v_{2})$ [/mm] aus Eigenvektoren.
Wenn du die Eigenvektoren nacheinander in eine Matrix schreibst, entsteht die Transformationsmatrix T:
$T = [mm] \pmat{1 & 1\\ 1 & -1}$.
[/mm]
Dann ist
$D = [mm] T^{-1}*A*T$
[/mm]
die Diagonalmatrix. Das bedeutet,
[mm] $T*D*T^{-1}= [/mm] A$.
Wenn du also nun den Vektor [mm] $\vec{p} [/mm] = [mm] \vektor{1\\1}$ [/mm] hast und [mm] $A\vec{p}$ [/mm] berechnen möchtest, so kannst du stattdessen auch
[mm] $(T*D*T^{-1})*\vec{p}$
[/mm]
berechnen.
Das heißt (was tust du dann in dieser dreifachen Matrixmultiplikation): Erst [mm] \vec{p} [/mm] in der Basis B darstellen, dann mit der Diagonalmatrix multiplizieren, und dann das Ergebnis wieder in der Standardbasis darstellen.
Grüße,
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 11:54 Mi 24.02.2010 | Autor: | Kalka |
hey,
vielen Dank, ich denke das habe ich verstanden, in meiner "neuen" Rechnung mit diesem Verfahren komme ich dann auch auf den selben Punkt :)
Eine Frage hätte ich noch zu..
"oft muss man die Eigenvektoren vor dem Diagonalisieren schon bestimmen, um zu testen, ob eine Matrix überhaupt diagonalisierbar ist"
Das hat mich doch etwas verwirrt, woran genau erkennt man denn, ob eine Matrix diagonalisierbar ist? Ich dachte da gibt es nur die Kriterien
[mm] A=A^{T}
[/mm]
oder wenn jede Spalte einer Matrix zu jeder anderen Spalte orthogonal ist.
Viele Grüße,
Thomas
|
|
|
|
|
> "oft muss man die Eigenvektoren vor dem Diagonalisieren
> schon bestimmen, um zu testen, ob eine Matrix überhaupt
> diagonalisierbar ist"
>
> Das hat mich doch etwas verwirrt, woran genau erkennt man
> denn, ob eine Matrix diagonalisierbar ist? Ich dachte da
> gibt es nur die Kriterien
>
> [mm]A=A^{T}[/mm]
>
> oder wenn jede Spalte einer Matrix zu jeder anderen Spalte
> orthogonal ist.
Hallo,
letzteres ist kein Kriterium für Diagonalisierbarkeit. Schau Dir [mm] \pmat{0&1\\-1&0} [/mm] an: die Matrix ist orthogonal und hat keinen (reellen) Eigenwert.
Symmetrische Matrizen sind diagonalisierbar, das stimmt.
Aber es gibt noch viele andere Matrizen, die diagonalisierbar sind: diejenigen nxn-Matrizen, die n linear unabhängige Eigenvektoren haben.
Gruß v. Angela
|
|
|
|