www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - schwieriger Beweis
schwieriger Beweis < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

schwieriger Beweis: Erwartungswert
Status: (Frage) beantwortet Status 
Datum: 13:26 Mi 28.09.2011
Autor: mikexx

Aufgabe
Hallo, liebe Helferinnen und Helfer!
Die folgende Aufgabe ist ein harter Brocken und ich wäre äußerst dankbar für jegliche Hilfe.

Nun geht's los...

Seien [mm](X_i)_{i\geq 1}[/mm] unabhängige, identisch verteilte reelle Zufallsvariablen in [mm]\mathcal{L}^1[/mm] und [mm]\tau[/mm] eine [mm]\left\{0,1,2,3,\hdots\right\}[/mm] wertige Zufallsvariable mit [mm]E(\tau)<\infty[/mm]. Für alle [mm]n\in\mathbb N[/mm] sei das Ereignis [mm]\left\{\tau\geq n\right\}[/mm] unabhängig von [mm]X_n[/mm].

Zeige:

Die Zufallsvariable [mm]S_{\tau}=\sum_{i=1}^{\tau}X_i[/mm] besitzt einen Erwartungswert und es gilt [mm]E(S_{\tau})=E(\tau)E(X_1)[/mm].

Das ist so eine Aufgabe, wo ich nicht den Hauch einer Ahnung habe. Es wäre klasse und total nett, wenn mir jemand auf irgendeinen Sprung helfen könnte.

Ansonsten steht ich wirklich im Regen.


Liebe Grüße

mikexx

        
Bezug
schwieriger Beweis: Tipp
Status: (Antwort) fertig Status 
Datum: 14:33 Mi 28.09.2011
Autor: rrgg

So schwierig ist es nun auch wieder nicht!
Man kann das einfach ausrechnen. Dazu ist es nützlich den Erwartungswert auf die verschiedenen Werte von [mm] $\tau$ [/mm] aufzuteilen.
Nach zwei Zeilen ist man dann fertig!


LG



Bezug
                
Bezug
schwieriger Beweis: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:11 Mi 28.09.2011
Autor: mikexx

Könntest Du mir das bitte erklären, denn ich verstehe anhand der Worte leider nicht, was Du meinst...




Bezug
                        
Bezug
schwieriger Beweis: Antwort
Status: (Antwort) fertig Status 
Datum: 15:21 Mi 28.09.2011
Autor: rrgg

[mm] E[S_\tau]=E[\sum_{i=1}^\tau X_i]=E[1_{\{\tau=0\}}\sum_{i=1}^\tau X_i [/mm] + [mm] \hdots [/mm] + [mm] 1_{\{\tau=n\}} \sum_{i=1}^\tau X_i]=E[1_{\{\tau=0\}}\sum_{i=1}^\tau X_i [/mm] ]+ [mm] \hdots [/mm] + [mm] E[1_{\{\tau=n\}} \sum_{i=1}^\tau X_i] [/mm]

Jetzt steht die Lösung ja fast schon da!

Bezug
                                
Bezug
schwieriger Beweis: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:45 Mi 28.09.2011
Autor: mikexx

Ich verstehe die Aufteilung mittels der char. Funktionen irgendwie nicht.

Tut mir leid, wenn ich nochmal nachhaken muss!

Wo ist denn zum Beispiel der Fall [mm]\tau\geq n[/mm]?

Bezug
                                        
Bezug
schwieriger Beweis: Antwort
Status: (Antwort) fertig Status 
Datum: 16:11 Mi 28.09.2011
Autor: rrgg

Oh, hab ich übersehen! (dachte nur werte von 1,...,n)
Dann braucht man noch den Satz von der monotonen Konvergenz:


[mm] E[|S_\tau|]=E[\sum_{i=1}^\tau |X_i|]=E[lim_{n\to\infty}(1_{\{\tau=0\}}\sum_{i=1}^\tau |X_i| [/mm] + [mm] \hdots [/mm] + [mm] 1_{\{\tau=n\}} \sum_{i=1}^\tau |X_i| [/mm] )]
[mm] =lim_{n\to\infty}(E[1_{\{\tau=0\}}\sum_{i=1}^\tau |X_i| ]+\hdots [/mm] + [mm] E[1_{\{\tau=n\}} \sum_{i=1}^\tau |X_i|]) [/mm]
[mm] =\sum_{i=0}^\infty(P(\tau=i)*i*E[|X_1|) [/mm]
[mm] =E[\tau]*E[|X_1|] [/mm]
Also existiert der EW
Mit dem Satz von der dominierten Konvergenz folgt dann:


[mm] E[S_\tau]=E[\sum_{i=1}^\tau X_i]=E[lim_{n\to\infty}(1_{\{\tau=0\}}\sum_{i=1}^\tau X_i [/mm] + [mm] \hdots [/mm] + [mm] 1_{\{\tau=n\}} \sum_{i=1}^\tau X_i [/mm] )]
[mm] =lim_{n\to\infty}(E[1_{\{\tau=0\}}\sum_{i=1}^\tau X_i ]+\hdots [/mm] + [mm] E[1_{\{\tau=n\}} \sum_{i=1}^\tau X_i])= [/mm]
[mm] \sum_{i=0}^\infty(P(\tau=i)*i*E[X_1]) [/mm]
[mm] =E[\tau]*E[X_1] [/mm]

Bezug
        
Bezug
schwieriger Beweis: Antwort
Status: (Antwort) fertig Status 
Datum: 13:47 Fr 30.09.2011
Autor: dennis2

Ich denke, es geht auch etwas elementarer!

[mm]S_{\tau}=\sum_{i=1}^{\tau}X_i=\sum_{i=1}^{\infty}X_i\cdot\chi_{\left\{\tau\geq i\right\}}[/mm]

([mm]\chi[/mm] steht hier für die charakteristische Funktion.)

[mm]\Rightarrow E(S_{\tau})=E\left(\sum_{i=1}^{\infty}X_i\cdot\chi_{\left\{\tau\geq i\right\}}\right)=\sum_{i=1}^{\infty}E(X_i\cdot\chi_{\left\{\tau\geq i\right\}})[/mm]

(Das Letzte Gleichheitszeichen gilt wegen der Additivität des Erwartungswerts.)

Nun ist n.V. [mm]\left\{\tau\geq n\right\}[/mm] unabhängig von [mm]X_n[/mm] für alle [mm]n\in\mathbb N[/mm].

[mm]\Rightarrow \sum_{i=1}^{\infty}E(X_i\cdot\chi_{\left\{\tau\geq i\right\}})=\sum_{i=1}^{\infty}E(X_i)\cdot E(\chi_{\left\{\tau\geq i\right\}})=\sum_{i=1}^{\infty}E(X_i)\cdot P(\tau\geq i)[/mm], denn

[mm]E(\chi_{\left\{\tau\geq i\right\}})=P(\tau\geq i)[/mm].

Weiter gilt aufgrund der identischen Verteilungen der [mm]X_n[/mm], daß

[mm]\sum_{i=1}^{\infty}E(X_i)\cdot P(\tau\geq i)=E(X_1)\sum_{i=1}^{\infty}P(\tau\geq i)[/mm] gilt.

Nun betrachtet man die Summe etwas genauer und kann folgendermaßen umformen:

[mm]\sum_{i=1}^{\infty}P(\tau\geq i)=\sum_{i=1}^{\infty}\sum_{k=i}^{\infty}P(\tau =k)=\sum_{k=i}^{\infty}\sum_{i=1}^{k}P(\tau=k)=\sum_{k=1}^{\infty}k\cdot P(\tau =k)=E(\tau)[/mm]

[mm]\Box[/mm]



Bezug
                
Bezug
schwieriger Beweis: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:15 Fr 30.09.2011
Autor: mikexx

Wer kann mir bitte folgende Frage beantworten:

Man weiß ja, daß das Ereignis [mm]\left\{\tau\geq n\right\}[/mm] unabhängig ist von [mm]X_n[/mm] für alle [mm]n\in\mathbb N[/mm].


Wieso folgt daraus, daß die Zufallsvariable

[mm]\chi_{\left\{\tau\geq n\right\}}[/mm] unabhängig ist von der Zufallsvariable [mm]X_n[/mm] (für alle [mm]n\in\mathbb N[/mm])?


Das verstehe ich nicht.

Bezug
                        
Bezug
schwieriger Beweis: Antwort
Status: (Antwort) fertig Status 
Datum: 19:20 Fr 30.09.2011
Autor: felixf

Moin!

> Wer kann mir bitte folgende Frage beantworten:
>  
> Man weiß ja, daß das Ereignis [mm]\left\{\tau\geq n\right\}[/mm]
> unabhängig ist von [mm]X_n[/mm] für alle [mm]n\in\mathbb N[/mm].
>  
>
> Wieso folgt daraus, daß die Zufallsvariable
>  
> [mm]\chi_{\left\{\tau\geq n\right\}}[/mm] unabhängig ist von der
> Zufallsvariable [mm]X_n[/mm] (für alle [mm]n\in\mathbb N[/mm])?
>  
>
> Das verstehe ich nicht.

Schau doch mal in die Definition, was es bedeutet, dass eine ZV von einer anderen ZV unabhaengig ist. Das bedeutet doch, dass die zugehoerige [mm] $\sigma$-Algebra [/mm] unabhaengig von der zweiten ZV ist.

Die zu [mm] $\chi_{\{ \tau \geq n \}}$ [/mm] gehoerende [mm] $\sigma$-Algebra [/mm] besteht aus vier Mengen: [mm] $\emptyset$, $\IR$, $\{ \tau \geq n \}$ [/mm] und [mm] $\{ \tau < n \}$. [/mm] Jetzt musst du schauen, dass diese Mengen unabhaengig von $X$ sind. Fuer die ersten beiden Mengen ist das klar, fuer die Dritte folgt es aus der Voraussetzung, und fuer die Vierte ebenfalls, da sie das Komplement der dritten ist.

Du kannst auch gleich ein Lemma zeigen: eine Menge $A$ ist genau dann unabhaengig von einer ZV $X$ / einer anderen Menge $B$, wenn die Indikatorfunktion [mm] $\chi_A$ [/mm] unabhaengig von $X$ bzw. $B$ ist.

LG Felix


Bezug
                                
Bezug
schwieriger Beweis: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:30 Fr 30.09.2011
Autor: mikexx


> Moin!
>  
> > Wer kann mir bitte folgende Frage beantworten:
>  >  
> > Man weiß ja, daß das Ereignis [mm]\left\{\tau\geq n\right\}[/mm]
> > unabhängig ist von [mm]X_n[/mm] für alle [mm]n\in\mathbb N[/mm].
>  >  
> >
> > Wieso folgt daraus, daß die Zufallsvariable
>  >  
> > [mm]\chi_{\left\{\tau\geq n\right\}}[/mm] unabhängig ist von der
> > Zufallsvariable [mm]X_n[/mm] (für alle [mm]n\in\mathbb N[/mm])?
>  >  
> >
> > Das verstehe ich nicht.
>
> Schau doch mal in die Definition, was es bedeutet, dass
> eine ZV von einer anderen ZV unabhaengig ist. Das bedeutet
> doch, dass die zugehoerige [mm]\sigma[/mm]-Algebra unabhaengig von
> der zweiten ZV ist.

Diese Definition kenne ich gar nicht. ;( Wo finde ich sie?

Ich kenne Folgendes:

Zufallsvariablen [mm]X_1,...,X_n:\Omega\to\mathbb R[/mm] heißen unabhängig, falls

[mm]P(X_1\leq x_1,...,X_n\leq x_n)=\prod_{i=1}^{n}P(X_i\leq x_i)[/mm].

Und ich weiß nicht, was das hier nun bedeutet bzw. wie ich das verwenden kann.

>  
> Die zu [mm]\chi_{\{ \tau \geq n \}}[/mm] gehoerende [mm]\sigma[/mm]-Algebra
> besteht aus vier Mengen: [mm]\emptyset[/mm], [mm]\IR[/mm], [mm]\{ \tau \geq n \}[/mm]
> und [mm]\{ \tau < n \}[/mm]. Jetzt musst du schauen, dass diese
> Mengen unabhaengig von [mm]X[/mm] sind. Fuer die ersten beiden
> Mengen ist das klar, fuer die Dritte folgt es aus der
> Voraussetzung, und fuer die Vierte ebenfalls, da sie das
> Komplement der dritten ist.

Mir ist nicht klar, was es bedeutet, dass eine der Menge unabhängig von X ist. Wie ist denn diese Unabhängigkeit definiert?

>  
> Du kannst auch gleich ein Lemma zeigen: eine Menge [mm]A[/mm] ist
> genau dann unabhaengig von einer ZV [mm]X[/mm] / einer anderen Menge
> [mm]B[/mm], wenn die Indikatorfunktion [mm]\chi_A[/mm] unabhaengig von [mm]X[/mm] bzw.
> [mm]B[/mm] ist.
>  
> LG Felix
>  


Bezug
                                        
Bezug
schwieriger Beweis: Lemma
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 22:52 Fr 30.09.2011
Autor: mikexx

[mm]\Rightarrow [/mm] Sei also die Menge A unabhängig von der Zufallsvariablen X.

Was heißt das konkret??

Bezug
                                        
Bezug
schwieriger Beweis: Definitionen-Wirrwarr :-)
Status: (Antwort) fertig Status 
Datum: 14:23 Sa 01.10.2011
Autor: dennis2

Hallo, mikexx!

Wie bereits von felixf gesagt, mußt Du Dir die Definitionen klar machen. Wenn Du das hast, folgt es quasi von alleine!

Ich kann lediglich versuchen, es mal so umzuschreiben, daß es etwas durchsichtiger wird.

1.) Die Unabhängigkeit von Zufallsvariablen definiert man über deren Urbild-[mm]\sigma[/mm]-Algebren. Das bedeutet hier: Die Zufallsvariablen [mm]\chi_{\left\{\tau\geq n\right\}}[/mm] und [mm]X_n (\forall n\in\mathbb N)[/mm] nennt man unabhängig voneinander, wenn die Urbild-[mm]\sigma[/mm]-Algebren [mm]X_n^{-1}(\mathcal{B}(\mathbb R))[/mm] sowie [mm]\left\{\emptyset, \Omega, \left\{\tau\geq n\right\}, \left\{\tau
2.) Die Unabhängigkeit der zugehörigen Urbild-[mm]\sigma[/mm]-Algebren ist wiederum so definiert, daß jeweils zwei Elemente (das sind: Ereignisse) voneinander unabhängig sind.

3.) Die Unabhängigkeit von Ereignissen ist wiederum dann erfüllt, wenn für beliebige [mm]A\in X_n^{-1}(\mathcal{B}(\mathbb R)), B\in\left\{\emptyset, \Omega, \left\{\tau\geq n\right\}, \left\{\tau
[mm]P(A\cap B)=P(A)P(B)[/mm].


Du musst also lediglich alles Ebene für Ebene "herunterbrechen". Ich gebe zu, daß die Formulierung, daß ein Ereignis von einer Zufallsvariablen unabhängig sein soll, etwas verwirrend ist. Das ist aber nur eine andere Sprachweise dafür, daß das Ereignis unabhängig von einem beliebigen Element aus der Urbild-[mm]\sigma[/mm]-Algebra der Zufallsvarable ist.

Bezug
                
Bezug
schwieriger Beweis: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 12:32 Mo 03.10.2011
Autor: rrgg

Hallo!

[mm] E(S_{\tau})=E\left(\sum_{i=1}^{\infty}X_i\cdot\chi_{\left\{\tau\geq i\right\}}\right)=\sum_{i=1}^{\infty}E(X_i\cdot\chi_{\left\{\tau\geq i\right\}}) [/mm]

Das muss  man irgendwie begründen, da im Allgemeinen nicht gilt:

[mm] E(S_{\tau})=E\left(\sum_{i=1}^{\infty}Y_i \right) =\sum_{i=1}^{\infty}E(Y_i) [/mm]

LG

Bezug
                        
Bezug
schwieriger Beweis: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 00:29 Di 04.10.2011
Autor: dennis2

Das ist mir neu.

Der Erwartungswert ist meines Wissens immer additiv aufspaltbar.

Siehe zum Beispiel hier, ab Folie 11 von 19.


Oder was sehe ich da falsch?

Bezug
                                
Bezug
schwieriger Beweis: Antwort
Status: (Antwort) fertig Status 
Datum: 06:35 Di 04.10.2011
Autor: felixf

Moin,

> Das ist mir neu.
>  
> Der Erwartungswert ist meines Wissens immer additiv
> aufspaltbar.

er ist soweit ich weiss immer additiv aufspaltbar, sobald alle beteiligten Erwartungswerte (auch der  existieren (endliche Werte haben) bzw. Sinn machen (sie evtl. auch unendlich sind, jedoch nicht sowohl [mm] $+\infty$ [/mm] wie auch [mm] $-\infty$ [/mm] auftauchen, und die Reihe auf der einen Seite entweder konvergiert oder gegen [mm] $\pm \infty$ [/mm] divergiert, aber nicht z.B. sowas wie [mm] $\sum_{n=1}^\infty (-1)^n$ [/mm] ist).

Bei dieser Aufgabe hier ist vorausgesetzt, dass [mm] $X_i \in \mathcal{L}^1$ [/mm] ist. Das soll wohl bedeuten, dass der Erwartungswert existiert und endlich ist, da der Erwartungswert [mm] $E(X_i)$ [/mm] als [mm] $\int X_i(\omega) \; d\mu(\omega)$ [/mm] definiert ist.

Mit dem, was wir schon hatten, folgt [mm] $E(X_i \chi_{\{ \tau \ge i \}}) [/mm] = [mm] E(X_1) \cdot E(\chi_{\{ \tau \ge i \}}) [/mm] = [mm] E(X_1) \cdot P(\tau \ge [/mm] i) [mm] \in (-\infty, \infty)$. [/mm] Vor allem haben alle diese Erwartungswerte das gleiche Vorzeichen! Damit macht [mm] $\sum_{i=1}^\infty E(X_i \chi_{\{ \tau \ge i \}}) [/mm] = [mm] \sum_{i=1}^\infty E(X_1) \cdot P(\tau \ge [/mm] i)$ Sinn, und man sieht sogar dass der Grenzwert dieser Reihe konvergiert -- gegen [mm] $E(X_1) \cdot E(\tau)$. [/mm] Also existiert (mit irgendwelchen masstheoretischen Saetzen) auch [mm] $E(\sum_{i=1}^\infty X_i \chi_{\{ n \ge i \}})$ [/mm] und hat den gleichen Wert. :)

> Siehe zum Beispiel hier, ab Folie 11 von 19.

Wo hier?

LG Felix


Bezug
                                        
Bezug
schwieriger Beweis: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 11:28 Di 04.10.2011
Autor: dennis2

Bei Wikipedia lese ich Folgendes:

"Der Erwartungswert der Summe von n integrierbaren Zufallsvariablen [mm]X_i[/mm] lässt sich als Summe der einzelnen Erwartungswerte berechnen:

[mm]E\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^{n}E(X_i)[/mm]

Zitat Ende

Nun sind die Zufallsvariablen ja hier anscheinend integrierbar, da [mm]X_i\in \mathcal{L}^1[/mm].

Ich würde meinen, daß dies die Begründung dafür ist, daß ich die Erwartungswerte hier additiv abspalten kann.
Ist das dies, was Du meinstest, felixf?


Bezug
                                                
Bezug
schwieriger Beweis: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 13:35 Mi 05.10.2011
Autor: rrgg

Das Problem ist, dass man hier nicht nur endlich viele ZV aufsummiert.

Und ja klar funktioniert ds bei der Aufgabe, ich meine ja nur das man an der Stelle auf jeden Fall mal nachdenken muss!
Ist ja so ähnlich wie Integral und Ableitung vertauschen; das funktioniert auch fast immer, aber man muss schon ein bisschen arbeiten um das zu zeigen.

Lettztendlich ist dann der andere weg nicht einfacher wie meiner, weil ich ja dann auch die üblichen Konvergenzsätze brauche!

Bezug
                                                
Bezug
schwieriger Beweis: Antwort
Status: (Antwort) fertig Status 
Datum: 21:36 Mi 05.10.2011
Autor: Fry

Hey Dennis,

also in dem vorliegenden Fall handelt es sich um eine unendliche Summe von Erwartungswert und dann ist nicht mehr klar, dass man sozusagen den Erwartungswert in die Summe reinziehen darf. Dafür gibts ja in der Maßtheorie z.B. den Satz von der monotonen Konvergenz.

Gruß
Fry


Bezug
                                                        
Bezug
schwieriger Beweis: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 22:16 Mi 05.10.2011
Autor: felixf

Moin Fry,

> also in dem vorliegenden Fall handelt es sich um eine
> unendliche Summe von Erwartungswert und dann ist nicht mehr
> klar, dass man sozusagen den Erwartungswert in die Summe
> reinziehen darf. Dafür gibts ja in der Maßtheorie z.B.
> den Satz von der monotonen Konvergenz.

...nur das man den hier nicht (direkt) anwenden kann, da nicht vorausgesetzt ist, dass die [mm] $X_i \ge [/mm] 0$ sind. Wenn dem so waere wuerde der Satz das ganze erschlagen.

(Bei gewissen Anwendungsfaellen der Aufgabe ist dies der Fall, etwa wenn die [mm] $X_i$ [/mm] Schadenhoehen sind und [mm] $\tau$ [/mm] die zu erwartende Anzahl der Schaeden ist; dies hat man z.B. in der Sachversicherungsmathematik.)

LG Felix


Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.mathebank.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]