www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Lineare Algebra" - definitheit von matrizen
definitheit von matrizen < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

definitheit von matrizen: beweise
Status: (Frage) beantwortet Status 
Datum: 03:52 Di 17.01.2006
Autor: q.e.d

Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.

Hallo! Ich habe mal eine dringende Bitte an jeden der das hier liest. Keiner möchte dumm sterben, ich brauche sie, die Beweise, q.e.d.!!

Also, ich höre gerade statische und dynamische Optimierung, eine VWL Vorlesung, sehr allgemein, wenig Beispiele, abstrakt, schon in den Grundlagen fehlt mir ein plastisches Vorstellungsvermögen, ich glaube keiner kann sich das bildlich machen. Also, es geht um Folgendes:

Ich benötige Beweise fürs Verständnis, nicht nur 2-dimensional, sondern wenn es geht allgemein..und Beweise sind leider auch im globalen Netz nicht zu finden?!

Es handelt sich um die Definitheit von Matrizen..ich sehe notwendige Bedingungen, hinreichende Bedingungen, frage mich aber, warum?

Beweise für folgende Sätze(für symmetrische Matrizen):

eine Matrix ist positiv(negativ) definit, wenn alle ihre Eigenwerte positiv(negativ) sind.

eine Matrix ist positiv definit, wenn die Determinaten aller Hauptminoren von ihr positiv sind, bzw. die  Matrix ist negativ indefinit, wenn die Determinanten aller Hauptminoren alternierende Vorzeichen haben.

und letztendlich den Beweis für dominante Hauptdiagonalen..der mich gerade liest, weiß welche Bedingung ich meine.

Wo sind die verständlichen Beweise? Welcher Mensch kann so abstrakt denken??!
Unglaublich...

Und warum liegt eine zweifach differenzierbare Funktion konkav auf eine offenen und konvexen Menge, wenn ihre Hesse-Matrix negativ semidefinit ist?

Ich bin leider kein Mathematiker, aber wenn ihr mir helfen könntet, dann wäre ich euch mehr als dankbar!!


        
Bezug
definitheit von matrizen: Antwort
Status: (Antwort) fertig Status 
Datum: 12:40 Di 17.01.2006
Autor: Karl_Pech


> eine Matrix ist positiv definit, wenn alle ihre
> Eigenwerte positiv sind.


Hier ist eine []Definition für die positive Definitheit von Matrizen. Mit anderen Worten:


[mm]A\texttt{ ist positiv definit} :\Leftrightarrow x^TAx > 0[/mm]


Hier ist eine []Definition des Begriffs "Eigenwert".


Und jetzt müßte man es eigentlich zeigen können:


[mm]x^TAx > 0 \Rightarrow x^T\lambda x > 0 \Rightarrow \lambda x^Tx > 0[/mm]


Da [mm]x^Tx[/mm] eine Zahl ist, können wir beide Seiten mit [mm]\frac{1}{x^Tx}[/mm] multiplizieren:


[mm]\lambda > 0[/mm]


Allerdings bin ich mir beim Anfang meines "Beweises" nicht ganz sicher... [kopfkratz3]


> Wo sind die verständlichen Beweise? Welcher Mensch kann so
> abstrakt denken??!


Jeder Mensch, der es genügend hart und genügend lang versucht. Laß' dir von Niemandem etwas anderes einreden. Trotz vieler Enttäuschungen glaube ich (immer noch) daran...

Bezug
                
Bezug
definitheit von matrizen: editiert
Status: (Antwort) fertig Status 
Datum: 12:43 Di 17.01.2006
Autor: Julius

Hallo Karl!

Da du dir ja unsicher warst, ganz kurz:

Der Beweis ist richtig. :-) Man sollte noch erwähnen, dass $x$ ein Eigenvektor von $A$ (zum Eigenwert [mm] $\lambda$) [/mm] ist und dann $x^Tx$ sogar eine positive reelle Zahl ist (dadurch ändert sich das Ungleichheitszeichen nicht beim durchmultiplizieren...).

Aber du hast natürlich nur gezeigt: Wenn $A$ positiv definit ist, dann sind alle Eigenwerte positiv. Ich glaube dem Fragesteller ging es mehr um die Umkehrung...

Liebe Grüße
Julius

Bezug
                        
Bezug
definitheit von matrizen: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:38 Di 17.01.2006
Autor: Karl_Pech

Hallo Julius!


> Da du dir ja unsicher warst, ganz kurz:
>  
> Der Beweis ist richtig. :-) Man sollte noch erwähnen, dass
> [mm]x[/mm] ein Eigenvektor von [mm]A[/mm] (zum Eigenwert [mm]\lambda[/mm]) ist und
> dann [mm]x^Tx[/mm] sogar eine positive reelle Zahl ist (dadurch
> ändert sich das Ungleichheitszeichen nicht beim
> durchmultiplizieren...).


Ach ... das ist natürlich ein nicht unbedeutendes Detail! [bonk] Danke für den Hinweis! ;-)


> Aber du hast natürlich nur gezeigt: Wenn [mm]A[/mm] positiv definit
> ist, dann sind alle Eigenwerte positiv. Ich glaube dem
> Fragesteller ging es mehr um die Umkehrung...


Ähh ... [peinlich] ... Beweis später! :-)



Liebe Grüße
Karl
[user]





Bezug
                
Bezug
definitheit von matrizen: Beweisaufstellung
Status: (Frage) beantwortet Status 
Datum: 13:44 Di 17.01.2006
Autor: q.e.d

Vielen Dank!!

> Allerdings bin ich mir beim Anfang meines "Beweises" nicht
> ganz sicher... [kopfkratz3]

..du meinst die Matrix einfach durch ihre Eigenwerte zu ersetzen? Lambda wäre aber ein Vektor (Lösung hat mehrere Eigenwerte), und der Skalar 0 müsste durch den 0-Verktor ersetzt werden!! Oder es muss dann diese Bedingung halt für alle Lambda gültig sein...
Mmmh, einfacher Ansatz, wäre schön wenn er so einfach und richtig bleibt!!

Ich hatte noch einen anderen (für den 2dim) -Fall. Durch allgemeines Berechnen des charakteristischen Polynoms (pq-Formel) muss für positive Eigenwerte der linke Summand größer als der rechte sein( rechte Summand der Wurzelteil). Durch Lösen dieser Gleichung erhält man wieder die Bedingung, dass die Determinante der Matrix einfach größer Null sein muss. Dadurch wäre die Eigenwertbedingung auf die Hauptminorbedingung zurückgeführt, leider nur für den 2dim Fall. Der 3dimensionale Fall bedarf glaube ich einiges an Rechenarbeit und Trickserei, für den Allgemeinen Kenntnisse der Determinaten und Matrizen Rechenregeln, aber vielleicht gibt es noch eine andere Möglichkeit?
Wenn das mit Deinem Beweis unter Deiner Annahme stimmt, dann ist meine erste Frage ja schon mal komplett beantwortet!!

  

>  
>
> Jeder Mensch, der es genügend hart und genügend lang
> versucht. Laß' dir von Niemandem etwas anderes einreden.
> Trotz vieler Enttäuschungen glaube ich (immer noch)
> daran...

Danke! Ohne zu suchen und ohne zu verstehen, wie sollte ich dann lernen?! Viele tuen das nicht, oft nimmt man alles so hin, aber bloßes rechnen, wozu? Der Schatz liegt halt im Ursprung, schwer zu finden, ich werde weiter suchen, daran glaube ich..aber was mir immer komisch vorkommt, nicht nur bei diesen Definitannahmen, immer muss man sich wieder alles selber herleiten, obwohl es evtl. schon so viele Menschen getan haben, wird einen oft die Arbeit nicht abgenommen, weil Beweise verloren gehen, und oft nur komplexe Formeln erhalten bleiben, die so gesehen nur Symbole bleiben, und einen oft in den Wahnsinn treiben!!
Vielleicht wisst ihr ja was ich meine?

Bezug
                        
Bezug
definitheit von matrizen: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 20:50 Di 17.01.2006
Autor: Karl_Pech

Hallo q.e.d,


> ..du meinst die Matrix einfach durch ihre Eigenwerte zu
> ersetzen? Lambda wäre aber ein Vektor (Lösung hat mehrere
> Eigenwerte), und der Skalar 0 müsste durch den 0-Verktor
> ersetzt werden!! Oder es muss dann diese Bedingung halt für
> alle Lambda gültig sein...
>  Mmmh, einfacher Ansatz, wäre schön wenn er so einfach und
> richtig bleibt!!


Ok, ich versuch' mich mal an einem Beispiel:


[mm]\begin{pmatrix}5& -2& -1\\ -2& 4& 0\\ -3& -2& 5\end{pmatrix}\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} = \lambda\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} \Leftrightarrow \begin{pmatrix}5& -2& -1\\ -2& 4& 0\\ -3& -2& 5\end{pmatrix}\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} - \lambda\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} = 0[/mm]

[mm]\Leftrightarrow \begin{pmatrix}5& -2& -1\\ -2& 4& 0\\ -3& -2& 5\end{pmatrix}\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix}-\lambda\begin{pmatrix}x_1 + 0 + 0\\0 + x_2 + 0\\0 + 0 + x_3\end{pmatrix} = 0[/mm]

[mm]\Leftrightarrow \left(\begin{pmatrix}5& -2& -1\\ -2& 4& 0\\ -3& -2& 5\end{pmatrix}-\lambda\begin{pmatrix}1& 0 & 0\\0 & 1 & 0\\0 & 0 & 1\end{pmatrix}\right)\begin{pmatrix}x_1 \\ x_2 \\ x_3\end{pmatrix} = 0[/mm]


Daher berechnen wir jetzt die Determinante:


[mm]\begin{vmatrix}5-\lambda& -2& -1\\ -2& 4-\lambda& 0\\ -3& -2& 5-\lambda\end{vmatrix} = -\lambda^3 + 14\lambda^2 - 58\lambda + 64[/mm]


Dieses Polynom besitzt 3 Nullstellen [mm]\lambda_1, \lambda_2, \lambda_3[/mm]. Durch das Einsetzen jeder dieser Nullstellen in das ursprüngliche Gleichungssystem, ist jedesmal das System:


[mm]\left(\begin{array}{ccc|c}5-\lambda_i& -2& -1 & 0\\ -2& 4-\lambda_i& 0&0\\ -3& -2& 5-\lambda_i&0\end{array}\right)[/mm]


zu lösen.


Wir erhalten also nicht bloß einen sondern mehrere Eigenwerte. Und für jeden Eigenwert gibt es eine eigene Menge von Eigenvektoren. In diesem Sinne ist der Beweis, wie ich ihn geführt habe, nach den Verbesserungen von Julius korrekt. Denn das [mm]\lambda[/mm] in dem Beweis ist ja bloß ein Symbol für einen beliebigen Eigenwert von [mm]Ax[/mm](, wobei also [mm]x[/mm] ein beliebiger Eigenvektor aus der entsprechenden zum jeweiligen [mm]\lambda_i[/mm] gehörenden Menge von Eigenvektoren ist, so daß insgesamt also [mm]Ax = \lambda x[/mm] gilt). Im Beweis ist es egal, ob es sich dabei um [mm]\lambda_1, \lambda_2[/mm] oder [mm]\lambda_3[/mm] handelt. (Dann kopierst Du die Zeilen des Beweises eben 3x hintereinander für jedes [mm]\lambda_i[/mm] einmal. ;-))


Ok, Ich hoffe das ich das jetzt selber richtig und ein für alle Mal verstanden habe. Wenn nicht, so wäre ich für eine Korrektur dankbar. :-)



Viele Grüße
Karl





Bezug
                                
Bezug
definitheit von matrizen: geschafft?!
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:49 Do 19.01.2006
Autor: q.e.d

Ich glaube ich habe es jetzt!! Und es ist ganz einfach!! Vielleicht liest Du es ja noch?

es soll ja gelten:

Ax =  [mm] \lambda [/mm] x

Jetzt beide Seiten von links mit x´ (transponierter Vektor) multiplizieren:

x´A x = x´ [mm] \lambda [/mm] x

=>  x´A x =  [mm] (x_{1}^2 [/mm] + [mm] x_{2}^2 [/mm] + ...+ [mm] x_{n}^2) \lambda [/mm]

x´x ist immer postiv (nichttriviale und keine komplexen Lösungen), also muss für positive bzw. negative Definitheit von Matrizen  [mm] \lambda [/mm] jeweils positiv oder negativ sein!!!

Was sagst Du, damit wäre es doch ganz einfach bewiesen, oder?

Wäre schön, wenn Du mir vielleicht zu den übrigen Fragen auch noch helfen könntest? Wenn nicht, auch nicht schlimm, vielen Dank noch einmal!!

Bezug
                                        
Bezug
definitheit von matrizen: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:02 Do 19.01.2006
Autor: Karl_Pech

Hallo q.e.d,


> Ich glaube ich habe es jetzt!! Und es ist ganz einfach!!
> Vielleicht liest Du es ja noch?


Kaum zu glauben, aber wir haben uns wohl zum gleichen Zeitpunkt ins Forum eingeloggt. ;-)


> [... Beweis ...]


> Was sagst Du, damit wäre es doch ganz einfach bewiesen,
> oder?


Also ich denke mal, daß der Beweis so stimmt. (Vor allem scheint er doch genauso zu funktionieren wie meiner, oder? :-))


> Wäre schön, wenn Du mir vielleicht zu den übrigen Fragen
> auch noch helfen könntest? Wenn nicht, auch nicht schlimm,
> vielen Dank noch einmal!!


Also da bin ich mir (wie so oft) nicht 100%ig (oder eher nicht 75%ig ;-)) sicher. [sorry]



Viele Grüße
Karl





Bezug
                                
Bezug
definitheit von matrizen: symmetrische Matrizen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 01:08 Sa 28.01.2006
Autor: mathemaduenn

Hallo Karl,
Was Du da machst kann irgendwie nicht ganz richtig sein.

[mm] \pmat{ 1 & 10 \\ \bruch{1}{40} & 1 } [/mm]
Von dieser Matrix kannst Du ja mal Eigenwerte berechnen und die positive Definitheit an x= [mm] \vektor{1 \\ -1} [/mm] testen. Mit anderen Worten die Symmetrie ist wesentlich.
viele Grüeß
mathemaduenn

Bezug
                                        
Bezug
definitheit von matrizen: dein x ist kein Eigenvektor
Status: (Frage) beantwortet Status 
Datum: 10:00 Sa 28.01.2006
Autor: Karl_Pech

Hallo mathemaduenn,


> [mm]\pmat{ 1 & 10 \\ \bruch{1}{40} & 1 }[/mm]
>  Von dieser Matrix
> kannst Du ja mal Eigenwerte berechnen und die positive
> Definitheit an x= [mm]\vektor{1 \\ -1}[/mm] testen. Mit anderen
> Worten die Symmetrie ist wesentlich.


Julius hat in seiner Antwort geschrieben:


"Man sollte noch erwähnen, dass [mm]x[/mm] ein Eigenvektor von [mm]A[/mm] (zum Eigenwert [mm]\lambda[/mm]) ist."


Die Eigenwerte deiner Matrix sind


[mm]\lambda_1 = \frac{1}{2} > 0 \vee \lambda_2 = \frac{3}{2} > 0[/mm]


Damit ist [mm]A[/mm] positiv definit. Ist [mm]\begin{pmatrix}1\\-1\end{pmatrix}[/mm] ein Eigenvektor von [mm]A[/mm]? Setzen wir mal ein:


[mm](1,-1)\begin{pmatrix}{ 1 & 10 \\ \frac{1}{40} & 1 }\end{pmatrix}\begin{pmatrix}1\\-1\end{pmatrix} \mathop >^{\begin{subarray}{l}\text{nach}\\\text{Vorraussetzung}\end{subarray}} 0[/mm]


Aber das ist doch hier nicht der Fall. Also ist dein [mm]x[/mm] kein Eigenvektor von [mm]A[/mm].



Viele Grüße
Karl


[P.S. Kann auch sein, daß ich mir da ein Wahnsystem aufgebaut habe in welches ich mich immer mehr reinsteigere! [grins]]




Bezug
                                                
Bezug
definitheit von matrizen: Antwort
Status: (Antwort) fertig Status 
Datum: 17:40 Mo 30.01.2006
Autor: mathemaduenn

Hallo Karl,

> Julius hat in seiner Antwort geschrieben:
>  
>
> "Man sollte noch erwähnen, dass [mm]x[/mm] ein Eigenvektor von [mm]A[/mm]
> (zum Eigenwert [mm]\lambda[/mm]) ist."

... und deshalb funktioniert der Beweis nur in diese Richtung.
pos. definite Matrix  [mm] \Rightarrow [/mm] die Eigenwerte sind positiv

Zumindest ursprünglich gings um:
symm. Matrix mit pos. Eigenwerten  [mm] \Rightarrow [/mm] die Matrix ist pos. definit

wobei pos. definit heißt x^TAx>0 für alle x




> Die Eigenwerte deiner Matrix sind
>  
>
> [mm]\lambda_1 = \frac{1}{2} > 0 \vee \lambda_2 = \frac{3}{2} > 0[/mm]
>  
>
> Damit ist [mm]A[/mm] positiv definit. Ist
> [mm]\begin{pmatrix}1\\-1\end{pmatrix}[/mm] ein Eigenvektor von [mm]A[/mm]?
> Setzen wir mal ein:
>  
>
> [mm](1,-1)\begin{pmatrix}{ 1 & 10 \\ \frac{1}{40} & 1 }\end{pmatrix}\begin{pmatrix}1\\-1\end{pmatrix} \mathop >^{\begin{subarray}{l}\text{nach}\\\text{Vorraussetzung}\end{subarray}} 0[/mm]
>  
>
> Aber das ist doch hier nicht der Fall. Also ist dein [mm]x[/mm] kein
> Eigenvektor von [mm]A[/mm].

Dieser Schluß das mein x kein Eigenvektor sein kann ist richtig aber darum ging's halt beim Beweis nicht. Es soll ja für alle x gelten.
viele Grüße
mathemaduenn
  


Bezug
                
Bezug
definitheit von matrizen: Link
Status: (Antwort) fertig Status 
Datum: 20:08 Fr 20.01.2006
Autor: der_philip

Ich hab noch einen Text gefunden, in dem das ganz gut erklärt ist. Allerdings halt für Mathematiker. Naja, vielleicht hilfts...
Lieben Gruß Philip

[]http://www.mathematik.uni-ulm.de/m5/wahrheit/qufunkt.pdf

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.mathebank.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]