Statistik Grundlagen < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 15:19 Sa 10.03.2018 | Autor: | Jellal |
Hallo zusammen,
habe hier eine Verständnisschwierigkeit zur Einführung in die mathematische Statistik.
Die erste Frage:
In der Schätztheorie hat man ja eine Realisierung einer Zufallsvariablen X gegeben und will nun einen Parameter der Wahrscheinlichkeitsverteilung schätzen, bzw. im Allgemeinen einen Wert, den man von diesem Parameter ableiten kann.
Ist also [mm] \theta \in \Theta [/mm] der Parameter (zB das p in der Binomialverteilung), dann schätzt man H: [mm] \Theta ->\IR, \theta \mapsto H(\theta).
[/mm]
Nun frage ich mich, ob man das Problem [mm] H(\theta) [/mm] zu schätzen eindeutig umschreiben kann in das Problem, einfach [mm] \theta [/mm] zu schätzen?
Dazu müsste die Parameterfunktion H aber injektiv sein, da ich sonst keine eindeutigen [mm] \theta [/mm] bekäme. Die Injektivität war in den bisherigen mir begegneten Einstiegsbeispielen aber immer vorhanden.
Viele Grüße
Jellal
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:58 Sa 10.03.2018 | Autor: | luis52 |
Moin Jellal,
ich bin unsicher, ob ich die Frage korrekt verstehe. Aber bleiben wir
beim Beispiel der Bernoulli-Verteilung mit Parameter
[mm] $p=\operatorname{E}[X]$. [/mm] Aufgrund einer Stichprobe [mm] $X_1,\dots,X_n$ [/mm] ist
[mm] $\hat p=\sum X_i/n$ [/mm] ein erwartungstreuer Schaetzer von $p$. Angenommen,
man moechte aber [mm] $\operatorname{Var}[X]=p(1-p)=H(p)$ [/mm] schaetzen. $H$ ist
nicht injektiv, gleichwohl ist [mm] $H(\hat p)=\hat p(1-\hat [/mm] p)$ ein
"legitimer" Schaetzer.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:21 So 11.03.2018 | Autor: | Jellal |
Hallo Luis,
nun ist H(p) aber für p>=0 injektiv, was ja immer gegeben ist. Demzufolge kann ich, statt der Varianz, auch einfach p selbst schätzen mit dem Schätzer, den du angegeben hast.
Ich frage mich, ob das immer möglich ist, oder es ein Gegenbeispiel gibt.
|
|
|
|
|
Hihi,
H(p) ist doch nicht injektiv für $p [mm] \ge [/mm] 0$ .... es gilt offensichtlich für [mm] $0\le [/mm] p [mm] \le [/mm] 1$ dass $H(p) = H(1-p)$.
Ein untrügerisches Zeichen....
Gruß,
Gono
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 23:00 So 11.03.2018 | Autor: | Jellal |
Oh stimmt... da habe ich wohl nur auf den quadratischen Teil geschaut [mm] u_u
[/mm]
Danke!
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:03 Di 13.03.2018 | Autor: | Jellal |
Eine weitere Frage zu den Grundlagen, dieses mal zu statistischen Tests:
Ich teste eine Hypothese [mm] H_{0} [/mm] gegen [mm] H_{1} [/mm] mit einem Niveau [mm] \alpha [/mm] Test.
Sei [mm] K_{1} [/mm] die Menge der Testergebnisse, für die ich [mm] H_{0} [/mm] verwerfe, und [mm] K_{0} [/mm] analoges Gegenstück.
Getestet werden soll der Parameter [mm] \nu \in \Theta, [/mm] der ein zugrunde liegendes Wmaß [mm] P=P_{\nu} [/mm] beschrebt.
[mm] \Theta_{1} \subset \Theta [/mm] sei diejenige Parametermenge, in der der tatsächliche Parameter [mm] \nu_{0} [/mm] nach Behauptung [mm] H_{1} [/mm] liegt.
[mm] \Theta_{0} [/mm] analog.
Niveau [mm] \alpha [/mm] Test meint jetz [mm] P_{\nu}(K_{1})\le \alpha [/mm] mit [mm] \nu \in \Theta_{0}.
[/mm]
Das heißt doch in Worten: Die Wahrscheinlichkeit eines Fehlers erster Art (d.h. man verwirft [mm] H_{0}, [/mm] obwohl sie gilt) ist maximal [mm] \alpha.
[/mm]
Nun wird in meinem Buch aber auch explizit auf Fehlinterpretationen hingewiesen, z.B.:
"Ein häufig anzutreffender Umgang mit statistischen Tests ist der fälschliche Rückschluss vom konkreten Testergebnis auf "die Wahrscheinlichkeit, dass [mm] H_{0} [/mm] bzw. [mm] H_{1} [/mm] gilt". Ergibt ein [mm] \alpha [/mm] Test die Ablehnung von [mm] H_{0} [/mm] aufgrund einer Beobachtung x, so ist eine Formulierung wie "Die Wahrscheinlichkeit ist höchstens [mm] \alpha, [/mm] dass aufgrund des Testergebnisses die Hypothese [mm] H_{0} [/mm] zutrifft" sinnlos, da das Signifikanzniveau nicht angibt, mit welcher Wahrscheinlichkeit eine aufgrund einer Beobachtung x getroffene Entscheidung falsch ist. Das Signifikanzniveau [mm] \alpha [/mm] charakterisiert nur in dem Sinne das Testverfahren, dass bei Unterstellung der Gültigkeit von [mm] H_{0} [/mm] die Wahrscheinlichkeit für eine Ablehnung von [mm] H_{0} [/mm] höchstens [mm] \alpha [/mm] ist."
Ich verstehe hier die logische Differenz nicht.
Angenommen ich habe ein Ergebnis [mm] x\in K_{1}, [/mm] d.h. ich verwerfe die Hypothese 0. Entweder das ist eine richtige Entscheidung, dann mache ich keinen Fehler erster Art. Oder es ist die falsche Entscheidung, also [mm] H_{0} [/mm] gilt, dann mache ich einen Fehler erster Art. Aber die Wahrscheinlichkeit, einen Fehler erster Art zu machen ist gerade durch [mm] \alpha [/mm] begrenzt. Das bedeutet, wenn ich ein [mm] x\in K_{1} [/mm] erhalte, ist die Wkeit maximal [mm] \alpha, [/mm] dass [mm] \nu \in \Theta_{0} [/mm] ist.
Wo ist mein Denkfehler?
MfG.
Jellal
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:43 Di 13.03.2018 | Autor: | luis52 |
> Das bedeutet, wenn ich ein
> [mm]x\in K_{1}[/mm] erhalte, ist die Wkeit maximal [mm]\alpha,[/mm] dass [mm]\nu \in \Theta_{0}[/mm]
> ist.
>
> Wo ist mein Denkfehler?
Deine letzte Aussage beschreibt die bedingte Wahrscheinlichkeit [mm] $P_\nu(\nu \in \Theta_0\mid x\in K_{1})$. [/mm] Tatsaechlich gilt aber fuer den Test [mm] $P_\nu(x\in K_{1}\mid \nu \in \Theta_0)\le \alpha$.
[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 21:51 Di 13.03.2018 | Autor: | Jellal |
Danke Luis, ich ich sehe deinen Punkt.
Das heißt, dass einzige, was ich für [mm] x\in K_{1} [/mm] sagen kann, wäre: Mein Ergebnis reicht aus, um [mm] H_{0} [/mm] anzuzweifeln, da mein x für das Gelten von [mm] H_{0} [/mm] sehr unwahrscheinlich (P [mm] \le \alpha) [/mm] wäre.
Ich kann aber nicht sagen, mit welcher Wahrscheinlichkeit [mm] H_{1} [/mm] denn nun stimmt?
|
|
|
|