www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "mathematische Statistik" - Statistik Grundlagen
Statistik Grundlagen < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "mathematische Statistik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Statistik Grundlagen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:19 Sa 10.03.2018
Autor: Jellal

Hallo zusammen,

habe hier eine Verständnisschwierigkeit zur Einführung in die mathematische Statistik.

Die erste Frage:
In der Schätztheorie hat man ja eine Realisierung einer Zufallsvariablen X gegeben und will nun einen Parameter der Wahrscheinlichkeitsverteilung schätzen, bzw. im Allgemeinen einen Wert, den man von diesem Parameter ableiten kann.
Ist also [mm] \theta \in \Theta [/mm] der Parameter (zB das p in der Binomialverteilung), dann schätzt man H: [mm] \Theta ->\IR, \theta \mapsto H(\theta). [/mm]

Nun frage ich mich, ob man das Problem [mm] H(\theta) [/mm] zu schätzen eindeutig umschreiben kann in das Problem, einfach [mm] \theta [/mm] zu schätzen?
Dazu müsste die Parameterfunktion H aber injektiv sein, da ich sonst keine eindeutigen [mm] \theta [/mm] bekäme. Die Injektivität war in den bisherigen mir begegneten Einstiegsbeispielen aber immer vorhanden.


Viele Grüße

Jellal

        
Bezug
Statistik Grundlagen: Antwort
Status: (Antwort) fertig Status 
Datum: 22:58 Sa 10.03.2018
Autor: luis52

Moin Jellal,

ich bin unsicher, ob ich die Frage korrekt verstehe. Aber bleiben wir
beim Beispiel der Bernoulli-Verteilung mit Parameter
[mm] $p=\operatorname{E}[X]$. [/mm] Aufgrund einer Stichprobe [mm] $X_1,\dots,X_n$ [/mm] ist
[mm] $\hat p=\sum X_i/n$ [/mm] ein erwartungstreuer Schaetzer von $p$. Angenommen,
man moechte aber [mm] $\operatorname{Var}[X]=p(1-p)=H(p)$ [/mm] schaetzen. $H$ ist
nicht injektiv, gleichwohl ist [mm] $H(\hat p)=\hat p(1-\hat [/mm] p)$ ein
"legitimer" Schaetzer.      

Bezug
                
Bezug
Statistik Grundlagen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:21 So 11.03.2018
Autor: Jellal

Hallo Luis,

nun ist H(p) aber für p>=0 injektiv, was ja immer gegeben ist. Demzufolge kann ich, statt der Varianz, auch einfach p selbst schätzen mit dem Schätzer, den du angegeben hast.
Ich frage mich, ob das immer möglich ist, oder es ein Gegenbeispiel gibt.

Bezug
                        
Bezug
Statistik Grundlagen: Antwort
Status: (Antwort) fertig Status 
Datum: 17:48 So 11.03.2018
Autor: Gonozal_IX

Hihi,

H(p) ist doch nicht injektiv für $p [mm] \ge [/mm] 0$ .... es gilt offensichtlich für  [mm] $0\le [/mm] p [mm] \le [/mm] 1$ dass $H(p) = H(1-p)$.
Ein untrügerisches Zeichen....

Gruß,
Gono

Bezug
                                
Bezug
Statistik Grundlagen: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 23:00 So 11.03.2018
Autor: Jellal

Oh stimmt... da habe ich wohl nur auf den quadratischen Teil geschaut [mm] u_u [/mm]

Danke!

Bezug
        
Bezug
Statistik Grundlagen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:03 Di 13.03.2018
Autor: Jellal

Eine weitere Frage zu den Grundlagen, dieses mal zu statistischen Tests:

Ich teste eine Hypothese [mm] H_{0} [/mm] gegen [mm] H_{1} [/mm] mit einem Niveau [mm] \alpha [/mm] Test.
Sei [mm] K_{1} [/mm] die Menge der Testergebnisse, für die ich [mm] H_{0} [/mm] verwerfe, und [mm] K_{0} [/mm] analoges Gegenstück.
Getestet werden soll der Parameter [mm] \nu \in \Theta, [/mm] der ein zugrunde liegendes Wmaß [mm] P=P_{\nu} [/mm] beschrebt.
[mm] \Theta_{1} \subset \Theta [/mm] sei diejenige Parametermenge, in der der tatsächliche Parameter [mm] \nu_{0} [/mm] nach Behauptung [mm] H_{1} [/mm] liegt.
[mm] \Theta_{0} [/mm] analog.

Niveau [mm] \alpha [/mm] Test meint jetz [mm] P_{\nu}(K_{1})\le \alpha [/mm] mit [mm] \nu \in \Theta_{0}. [/mm]
Das heißt doch in Worten: Die Wahrscheinlichkeit eines Fehlers erster Art (d.h. man verwirft [mm] H_{0}, [/mm] obwohl sie gilt) ist maximal [mm] \alpha. [/mm]

Nun wird in meinem Buch aber auch explizit auf Fehlinterpretationen hingewiesen, z.B.:
"Ein häufig anzutreffender Umgang mit statistischen Tests ist der fälschliche Rückschluss vom konkreten Testergebnis auf "die Wahrscheinlichkeit, dass [mm] H_{0} [/mm] bzw. [mm] H_{1} [/mm] gilt". Ergibt ein [mm] \alpha [/mm] Test die Ablehnung von [mm] H_{0} [/mm] aufgrund einer Beobachtung x, so ist eine Formulierung wie "Die Wahrscheinlichkeit ist höchstens [mm] \alpha, [/mm] dass aufgrund des Testergebnisses die Hypothese [mm] H_{0} [/mm] zutrifft" sinnlos, da das Signifikanzniveau nicht angibt, mit welcher Wahrscheinlichkeit eine aufgrund einer Beobachtung x getroffene Entscheidung falsch ist. Das Signifikanzniveau [mm] \alpha [/mm] charakterisiert nur in dem Sinne das Testverfahren, dass bei Unterstellung der Gültigkeit von [mm] H_{0} [/mm] die Wahrscheinlichkeit für eine Ablehnung von [mm] H_{0} [/mm] höchstens [mm] \alpha [/mm] ist."

Ich verstehe hier die logische Differenz nicht.
Angenommen ich habe ein Ergebnis [mm] x\in K_{1}, [/mm] d.h. ich verwerfe die Hypothese 0. Entweder das ist eine richtige Entscheidung, dann mache ich keinen Fehler erster Art. Oder es ist die falsche Entscheidung, also [mm] H_{0} [/mm] gilt, dann mache ich einen Fehler erster Art. Aber die Wahrscheinlichkeit, einen Fehler erster Art zu machen ist gerade durch [mm] \alpha [/mm] begrenzt. Das bedeutet, wenn ich ein [mm] x\in K_{1} [/mm] erhalte, ist die Wkeit maximal [mm] \alpha, [/mm] dass [mm] \nu \in \Theta_{0} [/mm] ist.

Wo ist mein Denkfehler?

MfG.
Jellal


Bezug
                
Bezug
Statistik Grundlagen: Antwort
Status: (Antwort) fertig Status 
Datum: 20:43 Di 13.03.2018
Autor: luis52


>  Das bedeutet, wenn ich ein
> [mm]x\in K_{1}[/mm] erhalte, ist die Wkeit maximal [mm]\alpha,[/mm] dass [mm]\nu \in \Theta_{0}[/mm]
> ist.
>  
> Wo ist mein Denkfehler?


Deine letzte Aussage beschreibt die bedingte Wahrscheinlichkeit [mm] $P_\nu(\nu \in \Theta_0\mid x\in K_{1})$. [/mm] Tatsaechlich gilt aber fuer den Test [mm] $P_\nu(x\in K_{1}\mid \nu \in \Theta_0)\le \alpha$. [/mm]

Bezug
                        
Bezug
Statistik Grundlagen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:51 Di 13.03.2018
Autor: Jellal

Danke Luis, ich ich sehe deinen Punkt.

Das heißt, dass einzige, was ich für [mm] x\in K_{1} [/mm] sagen kann, wäre: Mein Ergebnis reicht aus, um [mm] H_{0} [/mm] anzuzweifeln, da mein x für das Gelten von [mm] H_{0} [/mm] sehr unwahrscheinlich (P [mm] \le \alpha) [/mm] wäre.
Ich kann aber nicht sagen, mit welcher Wahrscheinlichkeit [mm] H_{1} [/mm] denn nun stimmt?



Bezug
                                
Bezug
Statistik Grundlagen: Antwort
Status: (Antwort) fertig Status 
Datum: 21:58 Di 13.03.2018
Autor: luis52


> Das heißt, dass einzige, was ich für [mm]x\in K_{1}[/mm] sagen
> kann, wäre: Mein Ergebnis reicht aus, um [mm]H_{0}[/mm]
> anzuzweifeln, da mein x für das Gelten von [mm]H_{0}[/mm] sehr
> unwahrscheinlich (P [mm]\le \alpha)[/mm] wäre.

[ok]

>  Ich kann aber nicht sagen, mit welcher Wahrscheinlichkeit
> [mm]H_{1}[/mm] denn nun stimmt?

[ok]  [mm]H_{0}[/mm] bzw. [mm]H_{1}[/mm] triftt zu oder nicht.



Bezug
Ansicht: [ geschachtelt ] | ^ Forum "mathematische Statistik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.mathebank.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]