Abschätzung der Genauigkeit der Varianz

11/05/2015 - 11:44 von f.kuester | Report spam
Hallo,

in einem physikalischen Experiment werden aus einer Grundgesamtheit
Stichproben gezogen (reelle Zahlen, vermutlich normalverteilt). Der
Mittelwert der Stichprobe ist dann der Schàtzer für den Mittelwert
der Grundgesamtheit, bei einer Stichprobengröße von N ist die
Standardabweichung dieser Schàtzung \sigma_{\mu}= \sigma / \sqrt{N}
oder ungefàhr s / \sqrt{N), wenn s die Standardabweichung der
Stichprobe ist.

Ich interessiere mich jetzt aber für die Varianz der Messmethode im
Vergleich zu anderen und möchte wissen, wie genau man aus diesem
Experiment die Varianz bzw. Standardabweichung abschàtzen kann.
Intuitiv muss auch dieser Schàtzer genauer (mit höherer
Wahrscheinlichkeit nàher an der Standardabweichung der Grundgesamtheit)
werden, wenn man eine größere Stichprobe hat.

Aber wie lautet die Formel?

Ich habe versucht, es über Fehlerfortpflanzung zu berechnen. Ausgehend
von der Definition der Standardabweichung

s = \sqrt{ 1/(N-1) \sum (x_i - \bar{x})^2 }

habe ich die Ableitung nach x_i und \bar{x} berechnet und als
Unsicherheit für x_i einfach s und für \bar{x} das oben beschriebene
s/\sqrt{N} eingesetzt. Aber entweder habe ich mich verrechnet, oder
es stimmen Annahmen nicht. Denn ich erhalte eine Formel für die
Varianz von s, die im Grenzfall von N gegen unendlich ebenfalls
gegen unendlich geht.

Für Hilfe oder Verweise ins Internet bin ich dankbar; Literaturverweise
schaden nicht, sind aber weniger nützlich (da es ewig dauert bis ich
dienstlich ein Buch bestellt habe...)

Vielen Dank, Frank Küster
 

Lesen sie die antworten

#1 f.kuester
12/05/2015 - 08:08 | Warnen spam
Am Montag, 11. Mai 2015 11:44:35 UTC+2 schrieb :

Ich interessiere mich jetzt aber für die Varianz der Messmethode im
Vergleich zu anderen und möchte wissen, wie genau man aus diesem
Experiment die Varianz bzw. Standardabweichung abschàtzen kann.


[...]
Aber wie lautet die Formel?

Ich habe versucht, es über Fehlerfortpflanzung zu berechnen.



Irgendwie bekomme ich grundsàtzliche Zweifel an meinem Ansatz. Ich hatte
in der Tat einen Rechenfehler beim Ableiten und habe es jetzt der Übersicht
halber mit der Varianz statt der Standardabweichung versucht. Aber jetzt
kommt neuer Murks raus.

s^2 = 1/(N-1) \sum (x_i - \bar{x})^2

und meine Grundannahme, dass der gesuchte Wert \sigma_{s^2} sich so berechnet:

\sigma_{s^2} = \sigma_{x_i} ( \vardelta s^2 / \vardelta x_i )^2 +
+ \sigma_{\bar{x}} ( \vardelta s^2 / \vardelta \bar{x} )^2

Die erste der beiden Ableitungen ergibt aber

\vardelta 1 1
\vardelta x_i N-1 N-1

= 2/(N-1) ( \sum x_i - \sum \bar{x} )

Aber die Summation làuft ja von i = 1 bis N, und die Definition des
Mittelwerts ist \bar{x} = 1/N \sum x_i. Damit sind beide Terme in der
Klammer gleich N \bar{x}, und die Ableitung ist Null. Dasselbe (modulo
Vorzeichen) ergibt sich natürlich für die Ableitung nach \bar{x}.

Wunderbar, ich kann die Varianz der Grundgesamtheit mit bliebigem N
mit einem Fehler von 0 abschàtzen.

Wer hilft mir raus?

TIA, Frank

Ähnliche fragen