Teststatistik

Eine Teststatistik, auch Prüfgröße,[1] Testgröße[2], Testprüfgröße oder Prüffunktion genannt, ist eine spezielle reellwertige Funktion in der Testtheorie, einem Teilgebiet der mathematischen Statistik. Teststatistiken werden als Hilfsfunktionen bei der Definition von statistischen Tests verwendet. So wird beispielsweise bei einem Hypothesentest die Nullhypothese abgelehnt, wenn die Teststatistik über oder unter einem vorher festgelegten Zahlenwert liegt.

Definition

Gegeben sei eine Funktion

T : X R , {\displaystyle T\colon {\mathcal {X}}\to \mathbb {R} \;,}

die auf dem Stichprobenraum X {\displaystyle {\mathcal {X}}} , der Menge aller möglichen Stichprobenwerte einer Stichprobenvariablen X {\displaystyle X} , definiert ist, sowie ein statistischer Test

φ : X [ 0 , 1 ] {\displaystyle \varphi \colon {\mathcal {X}}\to [0,1]} ,

der durch

φ ( X ) = { 1  falls  T ( X ) > k 0  falls  T ( X ) k {\displaystyle \varphi (X)={\begin{cases}1&{\text{ falls }}\quad T(X)>k\\0&{\text{ falls }}\quad T(X)\leq k\end{cases}}}

definiert ist.

Hierbei ist k {\displaystyle k} eine feste Zahl, die auch der kritische Wert genannt wird. Dann wird die Zufallsvariable T {\displaystyle T} eine Teststatistik genannt.[3]

Die Definition gilt ebenso für randomisierte Tests sowie Varianten der obigen Definition des Tests. Dazu gehört unter anderem das Vertauschen oder Abändern von Ungleichheitszeichen und Vertauschen von null und eins.

Beispiele

z-Statistik

Hauptartikel: Standardisierung (Statistik)

Unter Verwendung der Abkürzung

X ¯ = 1 n ( X 1 + X 2 + + X n ) {\displaystyle {\overline {X}}={\frac {1}{n}}\left(X_{1}+X_{2}+\ldots +X_{n}\right)}

für das Stichprobenmittel ist eine typische Teststatistik auf X = R n {\displaystyle {\mathcal {X}}=\mathbb {R} ^{n}} gegeben durch die z-Statistik

T ( X ) = n X ¯ μ σ {\displaystyle T(X)={\sqrt {n}}\cdot {\frac {{\overline {X}}-\mu }{\sigma }}}

Hierbei ist σ {\displaystyle \sigma } eine positive Zahl und μ {\displaystyle \mu } eine beliebige reelle Zahl. Diese Teststatistik findet beispielsweise bei den Gauß-Tests Anwendung. Dabei wird ausgenutzt, dass die Teststatistik standardnormalverteilt ist, d. h. T N ( 0 , 1 ) {\displaystyle T\sim {\mathcal {N}}(0,1)} , wenn die Stichprobenvariablen X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} normalverteilt sind mit Erwartungswert μ {\displaystyle \mu } und Varianz σ 2 {\displaystyle \sigma ^{2}} .[4]

t-Statistik

Hauptartikel: t-Statistik

Bezeichnet man mit

V ( X ) = 1 n 1 i = 1 n ( X i X ¯ ) 2 {\displaystyle V^{*}(X)={\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}

die korrigierte Stichprobenvarianz, so ist eine weitere wichtige Teststatistik auf X = R n {\displaystyle {\mathcal {X}}=\mathbb {R} ^{n}} gegeben durch

T ( X ) = n X ¯ μ V ( X ) {\displaystyle T(X)={\sqrt {n}}\cdot {\frac {{\overline {X}}-\mu }{\sqrt {V^{*}(X)}}}} .

Hierbei ist wieder μ {\displaystyle \mu } eine beliebige reelle Zahl. Diese Teststatistik findet bei dem Einstichproben-t-Test Anwendung. Dabei wird ähnlich zum obigen Beispiel ausgenutzt, dass wenn die Stichprobenvariablen normalverteilt sind mit Varianz σ 2 {\displaystyle \sigma ^{2}} und Mittelwert μ {\displaystyle \mu } , die Teststatistik t-verteilt ist mit ( n 1 ) {\displaystyle (n-1)} Freiheitsgraden. Es gilt dann T t n 1 {\displaystyle T\sim \mathbf {t} _{n-1}} .[5]

Chi-Quadrat-Summe

Eine dritte wichtige Teststatistik ist

T ( X ) := i = 1 n ( X i μ σ ) 2 {\displaystyle T(X):=\sum _{i=1}^{n}\left({\frac {X_{i}-\mu }{\sigma }}\right)^{2}}

Dabei ist μ R {\displaystyle \mu \in \mathbb {R} } und σ > 0 {\displaystyle \sigma >0} . Sie wird beispielsweise beim Chi-Quadrat-Test für die Varianz verwendet. Dabei wird genutzt, dass T {\displaystyle T} Chi-Quadrat-verteilt ist, wenn die Stichprobenvariablen normalverteilt sind mit Erwartungswert μ {\displaystyle \mu } und Varianz σ 2 {\displaystyle \sigma ^{2}} .[4]

Vorteile

Betrachtet man einen Test φ {\displaystyle \varphi } und bezeichnet mit E ϑ {\displaystyle \operatorname {E} _{\vartheta }} die Bildung des Erwartungswertes bezüglich einer Wahrscheinlichkeitsverteilung P ϑ {\displaystyle P_{\vartheta }} , so treten in der Testtheorie häufig Ausdrücke der Form

E ϑ 0 ( φ ) {\displaystyle \operatorname {E} _{\vartheta _{0}}(\varphi )} oder 1 E ϑ 1 ( φ ) {\displaystyle 1-\operatorname {E} _{\vartheta _{1}}(\varphi )}

auf. Dabei entspricht der erste Ausdruck dem Fehler 1. Art und der zweite dem Fehler 2. Art, wenn ϑ 0 {\displaystyle \vartheta _{0}} in der Nullhypothese ist und ϑ 1 {\displaystyle \vartheta _{1}} in der Alternative. Im Allgemeinen sind solche Ausdrücke schwer zu berechnen, da der Test φ {\displaystyle \varphi } selbst wenig Struktur besitzt.

Geht man nun von einem nichtrandomisierten Test φ {\displaystyle \varphi } aus (der randomisierte Fall folgt mit leichten Anpassungen), so lässt sich der Test schreiben als

φ ( X ) = 1 A ( X ) {\displaystyle \varphi (X)=\mathbf {1} _{A}(X)} .

Hierbei ist A {\displaystyle A} der Ablehnbereich des Tests und 1 A ( X ) {\displaystyle \mathbf {1} _{A}(X)} die Indikatorfunktion auf der Menge A {\displaystyle A} . Mit dieser Schreibweise folgt dann insbesondere

E ϑ ( φ ) = P ϑ ( A ) {\displaystyle \operatorname {E} _{\vartheta }(\varphi )=P_{\vartheta }(A)}

(siehe auch Verwendung zur Berechnung von Erwartungswert, Varianz und Kovarianz).

Ist der Test nun durch eine Teststatistik T {\displaystyle T} definiert, also beispielsweise durch

φ ( X ) = { 1  falls  T ( X ) > k 0  falls  T ( X ) k {\displaystyle \varphi (X)={\begin{cases}1&{\text{ falls }}\quad T(X)>k\\0&{\text{ falls }}\quad T(X)\leq k\end{cases}}} ,

so ist der Ablehnbereich von der Form

A = { X X T ( X ) > k } {\displaystyle A=\{X\in {\mathcal {X}}\mid T(X)>k\}} .

Damit reduziert sich aber die Bestimmung des Erwartungswertes des Tests zu

E ϑ ( φ ) = P ϑ ( A ) = P ϑ ( { X X T ( X ) > k } ) {\displaystyle \operatorname {E} _{\vartheta }(\varphi )=P_{\vartheta }(A)=P_{\vartheta }(\{X\in {\mathcal {X}}\mid T(X)>k\})} .

Damit lässt sich der Erwartungswert des Tests direkt bestimmen, wenn die Verteilung der Teststatistik bekannt ist. Wie die drei obigen Beispiele zeigen ist dies bei vielen wichtigen Tests der Fall.

Die einfachere Berechnung des Erwartungswertes über die Verteilung der Teststatistik wird auf verschiedene Weisen verwendet. Einerseits bei Hypothesentests vor der Datenauswertung, um den kritischen Wert k {\displaystyle k} so anzupassen, dass der Test den gewünschten Fehler erster Art einhält. Andererseits bei Signifikanztests nach der Datenauswertung zur Bestimmung des p-Wertes. Somit erleichtern Teststatistiken den Umgang und die Konstruktion von Tests.

Einzelnachweise

  1. Wolfgang Tschirk: Statistik: Klassisch oder Bayes. Zwei Wege im Vergleich. 1. Auflage. Springer Spektrum, Berlin/Heidelberg 2014, ISBN 978-3-642-54384-5, S. 67, doi:10.1007/978-3-642-54385-2. 
  2. Karl Bosch: Elementare Einführung in die angewandte Statistik. 8. Auflage. Vieweg, Wiesbaden 2005, S. 178. 
  3. Testtheorie. In: Guido Walz (Hrsg.): Lexikon der Mathematik. 1. Auflage. Spektrum Akademischer Verlag, Mannheim/Heidelberg 2000, ISBN 3-8274-0439-8. 
  4. a b Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, S. 195, doi:10.1007/978-3-642-41997-3. 
  5. Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, S. 282, doi:10.1515/9783110215274.