Unterschied zwischen Termen < Stochastik < Hochschule < Mathe < Vorhilfe
|
Hallo
koennte mir mal bitte jemand erklaeren, was der Unterschied (definitorisch) zwischen folgenden zwei Termen ist:
[mm] P_{(X_1,X_2)}
[/mm]
und
[mm] P_X_1 \otimes P_X_2
[/mm]
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:36 Sa 04.08.2007 | Autor: | korbinian |
Hallo
gib doch bitte den Zusammenhang bekannt.
Was ist [mm] X_1, X_2 [/mm] Ist [mm] (X_1,X_2) [/mm] wirklich ein Index?
gruß korbinian
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:31 Sa 04.08.2007 | Autor: | sancho1980 |
[mm] X_1 [/mm] und [mm] X_2 [/mm] sind Zufallsvariablen
|
|
|
|
|
Weiss das keiner oder fehlt noch irgendwas?
Das Eine ist das Produktmass, das Andere die gemeinsame Verteilung. Ich war davon ausgegangen, dass man das so versteht..
Was ist der Unterschied dazwischen? Bei unabhaengigen ZVen [mm] X_1 [/mm] und [mm] X_2 [/mm] gilt ja Produktmass = gemeinsame Verteilung..aber ich raff das nicht. Kann mir einer nicht mal ein Beispiel geben fuer zwei abhaengige ZVen, damit ich sehe, wie es zustande kommen kann, dass Produktmass [mm] \not= [/mm] gemeinsame Verteilung?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:01 So 05.08.2007 | Autor: | kochmn |
Grüß Dich Martin,
zunächst mal eine Definition: Die Unabhängigkeit zweier
Zufallsvariablen ist darüber definiert, dass Du für
beliebige Ereignisse [mm] (X_1=a) [/mm] und [mm] (X_2=b) [/mm] die Wahrscheinlichkeit
für das gleichzeitige Auftreten beider Realisierungen als Produkt
der Einzelwahrscheinlichkeiten angeben kannst.
Oder auf gutmathematisch:
=========================
Zwei in A und B lebende Zufallsvariablen [mm] X_1 [/mm] und [mm] X_2 [/mm] heißen
voneinander unabhängig dann und nur dann wenn
[mm]
\forall a\in A, b\in B: P[X_1=a \cap X_2=b] = P[X_1=a]\cdot P[X_2=b]
[/mm]
Aber Du hast nach einem Beispiel für abhängige ZV's gefragt.
Dazu musst Du Dich auf das Rechnen mit bedingten Wahrscheinlich-
keiten einlassen:
Sei [mm]X\in\{ 1,2\}[/mm] mit [mm]P[X=1]=P[X=2]=\bruch{1}{2}[/mm]
Sei [mm]Y\in\{ 1,2\}[/mm] mit
[mm]P[Y=1|X=1]=0.9,[/mm]
[mm]P[Y=1|X=2]=0.1[/mm]
(lies: Die bedingte Wahrscheinlichkeit dafür, dass [mm]Y=1[/mm]
beträgt 0.9, falls [mm]X=1[/mm]) und
[mm]P[Y=2|X=1]=0.1,[/mm]
[mm]P[Y=2|X=2]=0.9[/mm]
Offenbar ist das Verhalten von [mm]Y[/mm] stark vom Verhalten von [mm]X[/mm]
abhängig. Damit erhalten wir nach der Formel für die totale
Wahrscheinlichkeit
[mm]P[Y=1] = P[Y=1|X=1]\cdot P[X=1] + P[Y=1|X=2]\cdot P[X=2][/mm]
[mm]=0.45+0.05=0.5[/mm]
[mm]P[Y=2] = P[Y=2|X=1]\cdot P[X=1] + P[Y=2|X=2]\cdot P[X=2][/mm]
[mm]=0.05+0.45=0.5[/mm]
und schließlich zum Beispiel:
[mm]P[X=1\cap Y=1]=P[X=1]\cdot P[Y=1|X=1]=\bruch{1}{2}\cdot 0.9 = 0.45[/mm]
und das ist ungleich
[mm]P[X=1]\cdot P[Y=1] = 0.5\cdot 0.5 = 0.25[/mm]
Das ist eine Menge Holz auf Deine kurze Frage aber auch mit eines
der einfachsten Beispiele für abhängige Zufallsvariablen das mir
einfällt.
Liebe Grüße
Markus-Hermann.
P.S.: Ein Klassiker den Du Dir zu dem Thema auch anschauen
könntest wäre das Ziegenproblem.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:50 So 05.08.2007 | Autor: | kochmn |
Hallo nochmal!
Ohne Dein Skript einsehen zu können ist die Frage schwer zu
benatworten. Im Kontext Deiner zweiten Frage will ich es
dennoch versuchen:
Sei X mit Werten in A und Y mit Werten in B. Dann lese ich
[mm]P_{(X,Y)}[/mm]
als das gemeinsame Maß von X und Y:
[mm]P_{(X,Y)}: A\times B \to [0,1][/mm]
Bei
[mm]P_{X_1}\otimes P_{X_2}[/mm]
muss ich Dich aber definitiv auf Dein Skript verweisen.
Dein Professor definiert [mm]\otimes[/mm] sicher an irgend einer Stelle.
Liebe Grüße
Markus-Hermann.
|
|
|
|