„Kolmogorow-Smirnow-Test“ – Versionsunterschied

[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K Abkürzung korrigiert
Änderung 242892992 von 93.129.135.103 rückgängig gemacht;
Markierung: Rückgängigmachung
 
(43 dazwischenliegende Versionen von 20 Benutzern werden nicht angezeigt)
Zeile 2: Zeile 2:


Mit seiner Hilfe kann anhand von [[Zufallsstichprobe]]n geprüft werden, ob
Mit seiner Hilfe kann anhand von [[Zufallsstichprobe]]n geprüft werden, ob
* zwei [[Zufallsvariable]]n die gleiche [[Wahrscheinlichkeitsverteilung|Verteilung]] besitzen oder
* zwei [[Zufallsvariable]]n eine identische [[Wahrscheinlichkeitsverteilung|Verteilung]] besitzen oder
* eine Zufallsvariable einer zuvor angenommenen Wahrscheinlichkeitsverteilung folgt.
* eine Zufallsvariable einer zuvor angenommenen Wahrscheinlichkeitsverteilung folgt.


Im Rahmen des letzteren (Einstichproben-)Anwendungsproblems spricht man auch vom '''Kolmogorow-Smirnow-Anpassungstest''' (KSA-Test).
Im Rahmen des letzteren (Einstichproben-)Anwendungsproblems spricht man auch vom '''Kolmogorow-Smirnow-Anpassungstest''' (KSA-Test). Einige (parametrische) statistische Verfahren setzen voraus, dass die untersuchten Variablen in der Grundgesamtheit [[Normalverteilung|normalverteilt]] sind. Der KSA-Test kann genutzt werden, um zu testen, ob diese Annahme verworfen werden muss oder (unter Beachtung des [[Fehler 2. Art|<math>\beta\,</math>-Fehlers]]) beibehalten werden kann.


== Konzeption ==
== Konzeption ==
[[Datei:KS Example.png|thumb|300px|Darstellung des Kolmogorow-Smirnow-Anpassungstest. Die rote Linie ist die [[Verteilungsfunktion]] der Nullhypothese, die blaue Linie ist die [[empirische Verteilungsfunktion]] der beobachteten Werte und der schwarze Pfeil illustriert den Wert <math>d_n</math> der Teststatistik <math>D_n</math>.]]
Die Konzeption soll anhand des Anpassungstests erläutert werden, wobei der Vergleich zweier Merkmale analog zu verstehen ist. Man betrachtet ein statistisches Merkmal <math>X</math>, dessen Verteilung in der [[Grundgesamtheit]] unbekannt ist. Die zweiseitig formulierten Hypothesen lauten dann:


Das Konzept wird anhand des Kolmogorow-Smirnow-Anpassungstest erläutert, wobei der Vergleich zweier Merkmale analog ist. Man betrachtet ein statistisches Merkmal <math>X</math>, dessen Verteilung in der [[Grundgesamtheit]] unbekannt ist und die eine stetige Verteilungsfunktion <math>F_X</math> besitzt. Die zweiseitig formulierten Hypothesen lauten dann:
[[Nullhypothese]] :
:<math>\!\,H_0\colon F_X(x) = F_0(x)</math>


(Die Zufallsvariable <math>X</math> besitzt die Wahrscheinlichkeitsverteilung <math>F_0</math>.)
[[Nullhypothese]]: <math>H_0\colon F_X = F_0</math>


[[Alternativhypothese]] :
[[Alternativhypothese]]: <math>H_1\colon F_X \neq F_0</math>
:<math>H_1\colon F_X(x) \neq F_0(x)</math>


(Die Zufallsvariable <math>X</math> besitzt eine andere Wahrscheinlichkeitsverteilung als <math>F_0</math>.)
Die Nullhypothese postuliert also, dass die Zufallsvariable <math>X</math> die Verteilungsfunktion <math>F_0</math> besitzt, während die Alternativhypothese besagt, dass <math>X</math> eine andere Verteilungsfunktion besitzt.


Es liegen <math>n</math> beobachtete Werte <math>x_1,\dots,x_n</math> als Realisierungen von stochastisch unabhängigen und identisch verteilten Zufallsvariablen <math>X_1,\dots,X_n</math> vor, die jeweils dieselbe stetige Verteilungsfunktion <math>F_X</math> haben. Der Kolmogorow-Smirnow-Anpassungstest basiert auf der Abweichung der zufälligen [[empirische Verteilungsfunktion|empirischen Verteilungsfunktion]]
Der Kolmogorow-Smirnow-Test vergleicht die [[empirische Verteilungsfunktion]] <math>F_n</math> mit <math>F_0</math>, mittels der [[Teststatistik]]
:<math>d_n=\|F_n-F_0\|=\sup_x|F_n(x)-F_0(x)|,</math>
:<math>\tilde F_n(x) = \frac{1}{n} \sum_{i=1}^n \mathbf{1}_{(-\infty,x]}(X_i), \quad x \in \R</math>
von der durch die Nullhypothese behaupteten Verteilungsfunktion <math>F_0</math>. Dazu wird die [[Teststatistik]]
wobei sup das [[Supremum]] bezeichnet.
:<math>D_n= \sup_{x \in \R} |\tilde F_n(x)-F_0(x)|</math>
gebildet, wobei sup das [[Supremum]] bezeichnet. (Das Supremum anstelle des Maximums ist erforderlich, da der größte Abstand an einer Sprungstelle der empirischen Verteilungsfunktion auftreten kann, wobei der linksseitige Grenzwert der empirischen Verteilungsfunktion an der Sprungstelle zum größten Abstand führen kann, der durch Maximum nicht erreicht würde. Mithilfe der [[Supremumsnorm]] <math>\|\cdot\|</math> kann die Teststatistik in der Form <math>D_n = \|\tilde F_n -F_0\|</math> geschrieben werden.) <math>D_n</math> ist eine Zufallsvariable mit einer Wahrscheinlichkeitsverteilung, die im Allgemeinen von <math>F_X</math> und von <math>F_0</math> abhängt. Wenn die Nullhypothese richtig ist, hängt die Wahrscheinlichkeitsverteilung von <math>D_n</math> nur von <math>F_0</math> ab. Falls zusätzlich die Verteilungsfunktion <math>F_0</math> stetig ist, hängt die Wahrscheinlichkeitsverteilung von <math>D_n</math> nicht von <math>F_0</math> ab. Die Teststatistik <math>D_n</math> ist dann eine [[verteilungsfreie Statistik]] bezüglich der Klasse aller Wahrscheinlichkeitsverteilungen mit stetiger Verteilungsfunktion.


=== Testdurchführung===
Nach dem [[Gliwenko-Cantelli-Satz]] strebt die empirische Verteilung [[Gleichmäßige Konvergenz|gleichmäßig]] gegen die Verteilungsfunktion von <math>X</math> (also unter <math>H_0</math> gegen <math>F_0</math>). Unter <math>H_1</math> sollte man also größere Werte bekommen als unter <math>H_0</math>. Die Teststatistik ist unabhängig von der hypothetischen Verteilung <math>F_0</math>. Ist der Wert der [[Teststatistik]] größer als der entsprechende tabellierte kritische Wert, so wird die Nullhypothese verworfen.
Aus den beobachteten Werten ergibt sich eine konkrete empirische Verteilungsfunktion
:<math>F_n(x) = \frac{1}{n} \sum_{i=1}^n \mathbf{1}_{(-\infty,x]}(x_i), \quad x \in \R</math>
und mit dieser ein realisierter Wert <math>d_n</math> der Teststatistik <math>D_n</math>. Bei einer Verletzung der Nullhypothese rechnet man mit eher größeren Werten der Teststatistik als bei Richtigkeit der Nullhypothese. Daher wird die Nullhypothese für große Werte von <math>d_n</math> abgelehnt. Genauer wird zu vorgegebenem Signifikanzniveau <math>\alpha</math> die Nullhypothese zugunsten der Alternativhypothese abgelehnt, falls der Wert <math>d_n</math> größer als das <math>(1-\alpha)</math>-Quantil der Verteilung von <math>D_n</math> ist. Das benötigte <math>(1-\alpha)</math>-Quantil kann numerisch ermittelt oder aus Tabellen abgelesen werden.

Anstelle der Teststatistik <math>D_n</math> wird auch die Teststatistik <math>K_n = \sqrt{n}D_n</math> verwendet. Dies ist eine mögliche Fehlerquelle bei der Testdurchführung, da in der Literatur sowohl Tabellen mit Quantilen der Verteilung von <math>D_n</math> als auch von <math>K_n</math> vorliegen.

=== Asymptotik und approximativer Test ===
Wenn die Nullhypothese richtig ist, konvergiert <math>D_n</math> für über alle Grenzen wachsenden Stichprobenumfang fast sicher gegen Null ([[Satz von Gliwenko-Cantelli]]). Dagegen konvergiert die modifizierte Teststatistik
:<math> K_n = \sqrt{n}D_n</math>
für wachsenden Stichprobenumfang gegen die so genannte [[Kolmogorow-Verteilung]], die von [[Kolmogorow]] im Jahr 1933 veröffentlicht wurde.<ref>{{Literatur |Autor= |Titel=Sulla determinazione empirica di una legge di distribuzione |Sammelwerk=Giornale dell’Istituto italiano degli attuari |Band=IV |Nummer=1 |Datum=1933 |Seiten=83–91 |Sprache=it |Online=http://digitale.bnc.roma.sbn.it/tecadigitale/giornale/CFI0353791/1933/unico}}</ref> Für hinreichend große Stichprobenumfänge kann die Kolomogorow-Verteilung als Approximation der Verteilung von <math>K_n</math> verwendet werden. Wenn man nun den Test mit Hilfe der <math>(1-\alpha)</math>-Quantile der Kolmogorow-Verteilung durchführt, erhält man einen Test mit approximativem Signifikanzniveau <math>\alpha</math>.


== Vorgehensweise beim Einstichprobenproblem (Anpassungstest) ==
== Vorgehensweise beim Einstichprobenproblem (Anpassungstest) ==


Von einer reellen Zufallsvariablen <math>X</math> liegen <math>n</math> Beobachtungswerte <math>x_i</math> (<math>i=1,\dotsc,n</math>) vor, wobei angenommen werde, dass diese bereits aufsteigend sortiert sind: <math>x_1 \leq x_2 \leq \dotsb \leq x_n</math>. Von diesen Beobachtungen wird die relative [[Häufigkeitsverteilung|Summenfunktion]] (Summenhäufigkeit, [[empirische Verteilungsfunktion]]) <math>S(x_i)</math> ermittelt. Diese empirische Verteilung wird nun mit der entsprechenden hypothetischen Verteilung der Grundgesamtheit verglichen: Es wird der Wert der Wahrscheinlichkeitsverteilung an der Stelle <math>x_i</math> bestimmt: <math>F_0(x_i)</math>. Wenn <math>X</math> tatsächlich dieser Verteilung gehorcht, müssten die beobachtete Häufigkeit <math>S(x_i)</math> und die erwartete Häufigkeit <math>F_0(x_i)</math> in etwa gleich sein.
Von einer reellen Zufallsvariablen <math>X</math> liegen <math>n</math> Beobachtungswerte <math>x_i</math> (<math>i=1,\dotsc,n</math>) vor, die bereits aufsteigend sortiert sind: <math>x_1 \leq x_2 \leq \dotsb \leq x_n</math>. Von diesen Beobachtungen wird die relative Summenfunktion (Summenhäufigkeit, [[empirische Verteilungsfunktion]]) <math>S(x_i)</math> ermittelt. Diese empirische Verteilung wird nun mit der entsprechenden hypothetischen Verteilung der Grundgesamtheit verglichen: Es wird der Wert der Wahrscheinlichkeitsverteilung an der Stelle <math>x_i</math> bestimmt: <math>F_0(x_i)</math>. Wenn <math>X</math> tatsächlich dieser Verteilung gehorcht, müssten die beobachtete Häufigkeit <math>S(x_i)</math> und die erwartete Häufigkeit <math>F_0(x_i)</math> in etwa gleich sein.


Falls <math>F_0</math> stetig ist, kann die Teststatistik auf folgende Weise berechnet werden: Es werden für jedes <math>i = 1,\dotsc,n</math> die absoluten Differenzen
Falls <math>F_0</math> stetig ist, kann die Teststatistik auf folgende Weise berechnet werden: Es werden für jedes <math>i = 1,\dotsc,n</math> die absoluten Differenzen
Zeile 38: Zeile 48:
:<math> d_{\mathrm{u},i} = |S(x_{i-1})-F_0(x_i)|~</math>
:<math> d_{\mathrm{u},i} = |S(x_{i-1})-F_0(x_i)|~</math>


berechnet("o" für oben, "u" für unten), wobei <math>S(x_0):=0</math> gesetzt wird. Es wird sodann die absolut größte Differenz <math>d_\mathrm{max}</math> aus allen Differenzen <math>d_{{o},i}</math>, <math>d_{\mathrm{u},i}</math> ermittelt. Wenn <math>d_\mathrm{max}</math> einen kritischen Wert <math>d_{\alpha}</math> übersteigt, wird die Hypothese bei einem [[Signifikanzniveau]] <math>\alpha</math> abgelehnt.
berechnet („o“ für oben, „u“ für unten), wobei <math>S(x_0):=0</math> gesetzt wird. Es wird sodann die absolut größte Differenz <math>d_\mathrm{max}</math> aus allen Differenzen <math>d_{{o},i}</math>, <math>d_{\mathrm{u},i}</math> ermittelt. Wenn <math>d_\mathrm{max}</math> einen kritischen Wert <math>d_{\alpha}</math> übersteigt, wird die Hypothese bei einem [[Signifikanzniveau]] <math>\alpha</math> abgelehnt.


Bis <math>n=35</math> liegen die kritischen Werte tabelliert vor.<ref name="TabelleUniKL">{{Internetquelle
Bis <math>n=35</math> liegen die kritischen Werte tabelliert vor.<ref name="TabelleUniKL">{{Internetquelle
| url = http://www.mathematik.uni-kl.de/~schwaar/Exercises/Tabellen/table_kolmogorov.pdf
| url = https://www.mathematik.uni-kl.de/~schwaar/Exercises/Tabellen/table_kolmogorov.pdf
| titel = Critical values for the Kolmogorov-Smirnov Test for goodness of fit
| titel = Critical values for the Kolmogorov-Smirnov Test for goodness of fit
| zugriff = 2016-12-18
| zugriff = 2016-12-18
| archiv-url = https://web.archive.org/web/20160818104718/http://www.mathematik.uni-kl.de/~schwaar/Exercises/Tabellen/table_kolmogorov.pdf
| archiv-url = https://web.archive.org/web/20160818104718/http://www.mathematik.uni-kl.de/~schwaar/Exercises/Tabellen/table_kolmogorov.pdf
| archiv-datum = 2016-08-18}}</ref>
| archiv-datum = 2016-08-18}}</ref>
Für größere <math>n</math> können sie näherungsweise mit Hilfe der einfachen Formel
Für größere <math>n</math> können sie näherungsweise mit Hilfe der Formel
<math>d_\alpha=\tfrac{\sqrt{-0{,}5\ln\left(\frac{\alpha}{2}\right)}}{\sqrt{n}} </math> bestimmt werden.<ref name="Sachs2006">{{Literatur |Autor=Lothar Sachs, Jürgen Hedderich|Jahr=2006 |Titel=Statistik: Angewandte Statistik|Auflage=12.|Verlag=Springer|Ort= Berlin/ Heidelberg|Seiten=338}}</ref>
:<math>d_\alpha = \frac{\sqrt{-0{,}5\ln\left(\frac{\alpha}{2}\right)}}{\sqrt{n}} </math>
bestimmt werden.<ref name="Sachs2006">{{Literatur |Autor=[[Lothar Sachs]], Jürgen Hedderich|Jahr=2006 |Titel=Statistik: Angewandte Statistik|Auflage=12.|Verlag=Springer|Ort= Berlin/ Heidelberg|Seiten=338}}</ref>
Aus dieser Näherungsformel ergeben sich dann beispielsweise die in der unten stehenden Tabelle aufgeführten Formeln für den Bereich <math>n>35</math>.
Aus dieser Näherungsformel ergeben sich die in der unten stehenden Tabelle aufgeführten Formeln für den Bereich <math>n>35</math>.


{| class="wikitable" style="text-align:right;"
{| class="wikitable" style="text-align:right;"
Zeile 55: Zeile 66:
!<math>\boldsymbol{d_\alpha}</math>
!<math>\boldsymbol{d_\alpha}</math>
|-
|-
| <math>20{,}00\text{ }\%</math>
| <math>20{,}00\,\%</math>
|<math>\frac{1{,}073}{\sqrt{n}}</math>
|<math>\frac{1{,}073}{\sqrt{n}}</math>
|-
|-
| <math>10{,}00\text{ }\%</math>
| <math>10{,}00\,\%</math>
|<math>\frac{1{,}224}{\sqrt{n}}</math>
|<math>\frac{1{,}224}{\sqrt{n}}</math>
|-
|-
| <math>5{,}00\text{ }\%</math>
| <math>5{,}00\,\%</math>
|<math>\frac{1{,}358}{\sqrt{n}}</math>
|<math>\frac{1{,}358}{\sqrt{n}}</math>
|-
|-
| <math>2{,}00\text{ }\%</math>
| <math>2{,}00\,\%</math>
|<math>\frac{1{,}517}{\sqrt{n}}</math>
|<math>\frac{1{,}517}{\sqrt{n}}</math>
|-
|-
| <math>1{,}00\text{ }\%</math>
| <math>1{,}00\,\%</math>
|<math>\frac{1{,}628}{\sqrt{n}}</math>
|<math>\frac{1{,}628}{\sqrt{n}}</math>
|-
|-
| <math>0{,}10\text{ }\%</math>
| <math>0{,}10\,\%</math>
|<math>\frac{1{,}949}{\sqrt{n}}</math>
|<math>\frac{1{,}949}{\sqrt{n}}</math>
|}
|}
Zeile 87: Zeile 98:
(Die Zufallsvariable <math>X</math> besitzt eine andere Wahrscheinlichkeitsverteilung als <math>Y</math>.)
(Die Zufallsvariable <math>X</math> besitzt eine andere Wahrscheinlichkeitsverteilung als <math>Y</math>.)


Der Kolmogorow-Smirnow-Test vergleicht die empirische Verteilungsfunktionen (relativen Summenfunktionen) <math>F_{X,n}</math> und <math>F_{Y,m}</math> analog zum Einstichprobentest anhand ihrer absoluten Differenzen mittels der Teststatistik
Der Kolmogorow-Smirnow-Test vergleicht die empirischen Verteilungsfunktionen (relativen Summenfunktionen) <math>F_{X,n}</math> und <math>F_{Y,m}</math> analog zum Einstichprobentest anhand ihrer absoluten Differenzen mittels der Teststatistik


:<math>d_{n,m}=\|F_{X,n}-F_{Y,m}\|=\sup_x|F_{X,n}(x)-F_{Y,m}(x)|</math>.
:<math>d_{n,m}=\|F_{X,n}-F_{Y,m}\|=\sup_x|F_{X,n}(x)-F_{Y,m}(x)|</math>.


Die Nullhypothese wird bei einem Signifikanzniveau <math>\alpha</math> abgelehnt, falls <math>d_{n,m}</math> den kritischen Wert <math>d_\mathrm{krit}(\alpha,n,m)</math> überschreitet. Für kleine Werte von <math>n</math> und <math>m</math> liegen die kritischen Werte tabelliert vor <ref name="Pearson & Hartley">{{cite book
Die Nullhypothese wird bei einem Signifikanzniveau <math>\alpha</math> abgelehnt, falls <math>d_{n,m}</math> den kritischen Wert <math>d_\mathrm{krit}(\alpha,n,m)</math> überschreitet. Für kleine Werte von <math>n</math> und <math>m</math> liegen die kritischen Werte tabelliert vor.<ref name="Pearson & Hartley">{{cite book
|title= Biometrika Tables for Statisticians |editors = Pearson E.S. and Hartley, H.O. |year= 1972 |volume= 2 |publisher= Cambridge University Press |ISBN= 0-521-06937-8|pages=117–123, Tables 54, 55}}</ref><ref name="TabelleTwoSample">[http://www.soest.hawaii.edu/wessel/courses/gg313/Critical_KS.pdf Tabelle der kritischen Werte für den Zweistichprobentest] (PDF; 177&nbsp;kB)</ref>. Für große Werte von <math>n</math> und <math>m</math> wird die Nullhypothese abgelehnt, falls
|title= Biometrika Tables for Statisticians |editor = Pearson E.S. and Hartley, H.O. |year= 1972 |volume= 2 |publisher= Cambridge University Press |id= ISBN 0-521-06937-8|pages=117–123, Tables 54, 55 |language=en}}</ref><ref name="TabelleTwoSample">{{Webarchiv|url=http://www.soest.hawaii.edu/wessel/courses/gg313/Critical_KS.pdf |wayback=20130613002106 |text=Tabelle der kritischen Werte für den Zweistichprobentest }} (PDF; 177&nbsp;kB)</ref> Für große Werte von <math>n</math> und <math>m</math> wird die Nullhypothese abgelehnt, falls


:<math>\sqrt{\frac{n m}{n + m}}d_{n,m} > K_\alpha</math>,
:<math>\sqrt{\frac{n m}{n + m}}d_{n,m} > K_\alpha</math>,


wobei <math>K_\alpha</math> für große <math>n</math> und <math>m</math> näherungsweise als
wobei <math>K_\alpha</math> für große <math>n</math> und <math>m</math> näherungsweise als
<math>K_\alpha=\sqrt{\frac{\ln\left(\frac{2}{\alpha}\right)}{2}} </math>
:<math>K_\alpha=\sqrt{\frac{\ln\left(\frac{2}{\alpha}\right)}{2}} </math>
berechnet werden kann.
berechnet werden kann.

== Anwendungsbeispiele ==
* Der Kolmogorow-Smirnow-Test kann zum Testen von [[Zufallszahl]]en genutzt werden, beispielsweise um zu prüfen, ob die Zufallszahlen einer bestimmten Verteilung (z.&nbsp;B. [[Gleichverteilung]]) folgen.
* Einige (parametrische) statistische Verfahren setzen voraus, dass die untersuchten Variablen in der Grundgesamtheit [[Normalverteilung|normalverteilt]] sind. Der KSA-Test kann genutzt werden, um zu testen, ob diese Annahme verworfen werden muss oder (unter Beachtung des [[Fehler 2. Art|<math>\beta\,</math>-Fehlers]]) beibehalten werden kann.


== Zahlenbeispiel ==
== Zahlenbeispiel ==
[[Datei:KS-Test.png|mini|400px|Vergleich von empirischer und theoretischer Verteilung des Zahlenbeispiels: Links ein Histogramm mit Normalverteilungskurve, rechts die theoretische und die empirische Verteilungsfunktion]]
[[Datei:KS-Test.png|mini|400px|Vergleich von empirischer und theoretischer Verteilung des Zahlenbeispiels: Links ein Histogramm mit Normalverteilungskurve, rechts die theoretische und die empirische Verteilungsfunktion]]


In einem Unternehmen, das hochwertige Parfüms herstellt, wurde im Rahmen der Qualitätssicherung an einer Abfüllanlage die abgefüllte Menge für <math>n = 8</math> Flakons gemessen. Es ist das Merkmal <math>x</math>: Abgefüllte Menge in ml.
In einem Unternehmen, das hochwertige Parfüms herstellt, wurde im Rahmen der Qualitätssicherung an einer Abfüllanlage die abgefüllte Menge für <math>n = 8</math> [[Flakon]]s gemessen. Es ist das Merkmal <math>x</math>: Abgefüllte Menge in ml.


Es soll geprüft werden, ob noch die bekannten Parameter der Verteilung von <math>X</math> gelten.
Es soll geprüft werden, ob noch die bekannten Parameter der Verteilung von <math>X</math> gelten.
Zeile 113: Zeile 120:
Zunächst soll bei einem Signifikanzniveau <math>\alpha = 0{,}05</math> getestet werden, ob das Merkmal <math>X</math> in der Grundgesamtheit überhaupt normalverteilt mit den bekannten Parametern <math>\mu=11</math> und <math>\sigma^2=\sigma=1</math> ist, also
Zunächst soll bei einem Signifikanzniveau <math>\alpha = 0{,}05</math> getestet werden, ob das Merkmal <math>X</math> in der Grundgesamtheit überhaupt normalverteilt mit den bekannten Parametern <math>\mu=11</math> und <math>\sigma^2=\sigma=1</math> ist, also


:<math>H_0: F(x) = F_0(x) = \Phi (x|11;1)</math>
:<math>H_0\colon F(x) = F_0(x) = \Phi (x|11;1)</math>


mit <math>\Phi</math> als Normalverteilungssymbol. Es ergibt sich folgende Tabelle:
mit <math>\Phi</math> als Normalverteilungssymbol. Es ergibt sich folgende Tabelle:
Zeile 183: Zeile 190:
|}
|}


Hier bezeichnen <math>x_i</math> die <math>i</math>-te Beobachtung, <math>S(x_i)</math> den Wert der Summenfunktion der <math>i</math>-ten Beobachtung und <math>F_0(x_i)</math> den Wert der Normalverteilungsfunktion an der Stelle <math>x_i</math> mit den genannten Parametern. Die nächsten Spalten geben die oben angeführten Differenzen an. Der kritische Wert, der bei <math>n = 8</math> und <math>\alpha=0{,}05</math> zur Ablehnung führte, wäre der Betrag <math>0{,}454</math>.<ref name="TabelleUniKL" /> Die größte absolute Abweichung in der Tabelle ist <math>0{,}459</math> in der 3. Zeile. Dieser Wert ist größer als der kritische Wert, daher wird die Hypothese gerade noch abgelehnt. Es ist also zu vermuten, dass die Verteilungshypothese falsch ist. Das kann bedeuten, dass die abgefüllte Menge nicht mehr normalverteilt ist, dass sich die durchschnittliche Abfüllmenge <math>\mu</math> verschoben hat oder auch, dass sich die Varianz <math>\sigma^2</math> der Abfüllmenge verändert hat.
Hier bezeichnen <math>x_i</math> die <math>i</math>-te Beobachtung, <math>S(x_i)</math> den Wert der Summenfunktion der <math>i</math>-ten Beobachtung und <math>F_0(x_i)</math> den Wert der Normalverteilungsfunktion an der Stelle <math>x_i</math> mit den genannten Parametern. Die nächsten Spalten geben die oben angeführten Differenzen an. Der kritische Wert, der bei <math>n = 8</math> und <math>\alpha=0{,}05</math> zur Ablehnung führte, wäre der Betrag <math>0{,}454</math>.<ref name="TabelleUniKL" /> Die größte absolute Abweichung in der Tabelle ist <math>0{,}459</math> in der 3. Zeile. Dieser Wert ist größer als der kritische Wert, daher wird die Hypothese abgelehnt. Es ist also zu vermuten, dass die Verteilungshypothese falsch ist. Das kann bedeuten, dass die abgefüllte Menge nicht mehr normalverteilt ist, dass sich die durchschnittliche Abfüllmenge <math>\mu</math> verschoben hat oder auch, dass sich die Varianz <math>\sigma^2</math> der Abfüllmenge verändert hat.


== Eigenschaften des KS-Tests ==
== Eigenschaften des KS-Tests ==
Zeile 189: Zeile 196:
Beim Einstichprobenproblem ist der KS-Test im Gegensatz etwa zum [[Chi-Quadrat-Test|<math>\chi^2</math>-Test]] auch für kleine Stichproben geeignet.<ref name="Janssen2007">{{Literatur |Autor=Jürgen Janssen, Wilfried Laatz|Jahr=2007 |Titel=Statistische Datenanalyse mit SPSS für Windows|Auflage=6. |Verlag=Springer |Seiten=569}}</ref>
Beim Einstichprobenproblem ist der KS-Test im Gegensatz etwa zum [[Chi-Quadrat-Test|<math>\chi^2</math>-Test]] auch für kleine Stichproben geeignet.<ref name="Janssen2007">{{Literatur |Autor=Jürgen Janssen, Wilfried Laatz|Jahr=2007 |Titel=Statistische Datenanalyse mit SPSS für Windows|Auflage=6. |Verlag=Springer |Seiten=569}}</ref>


Der Kolmogorow-Smirnow-Test ist als ''nichtparametrischer Test'' sehr stabil und unanfällig. Ursprünglich wurde der Test für stetig verteilte metrische Merkmale entwickelt; er kann aber auch für diskrete und sogar rangskalierte Merkmale verwendet werden. In diesen Fällen ist der Test etwas weniger trennscharf, d.&nbsp;h. die Nullhypothese wird seltener abgelehnt als im stetigen Fall.
Der Kolmogorow-Smirnow-Test ist als ''nichtparametrischer Test'' sehr stabil und unanfällig. Ursprünglich wurde der Test für stetig verteilte metrische Merkmale entwickelt; er kann aber auch für diskrete und sogar rangskalierte Merkmale verwendet werden. In diesen Fällen ist der Test etwas weniger [[Trennschärfe eines Tests|trennscharf]], d.&nbsp;h. die Nullhypothese wird seltener abgelehnt als im stetigen Fall.


Ein großer Vorteil besteht darin, dass die zugrundeliegende Zufallsvariable keiner [[Normalverteilung]] folgen muss. Die Verteilung der Prüfgröße <math>d_n</math> ist ''für alle'' ([[stetig]]en) Verteilungen identisch. Dies macht den Test vielseitig einsetzbar, bedingt aber auch seinen Nachteil, denn der KS-Test hat allgemein eine geringe [[Teststärke]]. Der [[Lilliefors-Test]] ist eine Anpassung des Kolmogorow-Smirnow-Tests für die Testung auf Normalverteilung. Mögliche Alternativen zum KS-Test sind der [[Cramér-von-Mises-Test]], der für beide Anwendungsfälle geeignet ist, sowie der [[Anderson-Darling-Test]] für den Vergleich einer Stichprobe mit einer hypothetischen Wahrscheinlichkeitsverteilung.
Ein großer Vorteil besteht darin, dass die zugrundeliegende Zufallsvariable keiner [[Normalverteilung]] folgen muss. Dies macht den Test vielseitig einsetzbar, bedingt aber auch seinen Nachteil, denn der KS-Test hat allgemein eine geringe [[Teststärke]].
== Alternative Tests ==
Der [[Lilliefors-Test]] ist eine Anpassung des Kolmogorow-Smirnow-Tests für die Testung auf Normalverteilung mit unbekanntem Mittelwert und unbekannter Varianz. Mögliche Alternativen zum KS-Test sind der [[Cramér-von-Mises-Test]], der für beide Anwendungsfälle geeignet ist, sowie der [[Anderson-Darling-Test]] für den Vergleich einer Stichprobe mit einer hypothetischen Wahrscheinlichkeitsverteilung.


== Weblinks ==
== Weblinks ==
* {{Toter Link | date=2017-12-23 | url=http://www.statistik.tuwien.ac.at/public/dutt/vorles/inf_bak/node61.html}}
* {{Toter Link |date=2017-12-23 |url=http://www.statistik.tuwien.ac.at/public/dutt/vorles/inf_bak/node61.html |text=Kolmogorov-Smirnov-Test }}
* [http://www.faes.de/Basis/Basis-Statistik/Basis-Statistik-Kolmogorov-Smi/basis-statistik-kolmogorov-smi.html Tabelle mit kritischen Werten]
* [http://www.faes.de/Basis/Basis-Statistik/Basis-Statistik-Kolmogorov-Smi/basis-statistik-kolmogorov-smi.html Tabelle mit kritischen Werten]
* [http://www.physics.csbsju.edu/stats/KS-test.n.plot_form.html Online-Version des K-S-Tests]
* [http://www.physics.csbsju.edu/stats/KS-test.n.plot_form.html Online-Version des K-S-Tests]
* [http://jumk.de/statistik-rechner/ Online Durchführung des Tests]
* [https://jumk.de/statistik-rechner/ Online-Durchführung des Tests]


== Literatur ==
== Literatur ==
=== Zum Kolmogorow-Smirnow-Anpassungstest ===
* Lothar Sachs, Jürgen Hedderich: ''Angewandte Statistik.'' 12., vollständig überarbeitete und erweiterte Auflage. Springer, Berlin/ Heidelberg 2006, ISBN 978-3-540-32161-3.
* {{Literatur |Autor=Jürgen Hedderich, [[Lothar Sachs]] |Titel= Angewandte Statistik. Methodensammlung mit R |Auflage=17., überarbeitete und ergänzte Auflage |Verlag=Springer Spektrum |Ort=Berlin / Heidelberg |Datum=2018 |Fundstelle =''7.2.6 Kolmogoroff-Smirnoff Anpassungstest'', S. 494–497 |ISBN=978-3-662-62293-3 |DOI=10.1007/978-3-662-62294-0}}
* {{Literatur |Herausgeber=[[P. Heinz Müller|P. H. Müller]] |Titel=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage= 5 |ISBN=978-3-05-500608-1 |Fundstelle=''Kolmogorow-Test'', S. 187–188}}
* {{Literatur |Autor=[[Horst Rinne]] |Titel=Taschenbuch der Statistik |Verlag=Harri Deutsch |Ort=Frankfurt am Main |Datum=2008 | Auflage=4 |Fundstelle=''3.4.5.2 Kolmogorov-Smirnov-Anpassungstest'', S. 577–579 |ISBN=978-3-8171-1827-4}}

=== Zum Kolmogorow-Smirnow-Zweistichprobentest ===
* {{Literatur |Autor=Jürgen Hedderich, Lothar Sachs |Titel= Angewandte Statistik. Methodensammlung mit R |Auflage=17., überarbeitete und ergänzte Auflage |Verlag=Springer Spektrum |Ort=Berlin / Heidelberg |Datum=2018 |Fundstelle =''7.4.9 Vergleich zweier unabhängiger Stichproben nach Kolmogoroff/Smirnoff'', S. 592–594 |ISBN=978-3-662-62293-3 |DOI=10.1007/978-3-662-62294-0}}
* {{Literatur |Herausgeber=P. H. Müller |Titel=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage= 5 |ISBN=978-3-05-500608-1 |Fundstelle=''Kolmogorow-Smirnow-Test'', S. 185–186}}
* {{Literatur |Autor=Horst Rinne |Titel=Taschenbuch der Statistik |Verlag=Harri Deutsch |Ort=Frankfurt am Main |Datum=2008 | Auflage=4 |Fundstelle=''3.4.4.2 Kolmogorov-Smirnov-Homogenitätstest'', S. 573–575 |ISBN=978-3-8171-1827-4}}


== Einzelnachweise ==
== Einzelnachweise und Anmerkungen==
<references />
<references />



Aktuelle Version vom 7. März 2024, 15:19 Uhr

Der Kolmogorow-Smirnow-Test (KS-Test) (nach Andrei Nikolajewitsch Kolmogorow und Nikolai Wassiljewitsch Smirnow) ist ein statistischer Test auf Übereinstimmung zweier Wahrscheinlichkeitsverteilungen.

Mit seiner Hilfe kann anhand von Zufallsstichproben geprüft werden, ob

  • zwei Zufallsvariablen eine identische Verteilung besitzen oder
  • eine Zufallsvariable einer zuvor angenommenen Wahrscheinlichkeitsverteilung folgt.

Im Rahmen des letzteren (Einstichproben-)Anwendungsproblems spricht man auch vom Kolmogorow-Smirnow-Anpassungstest (KSA-Test). Einige (parametrische) statistische Verfahren setzen voraus, dass die untersuchten Variablen in der Grundgesamtheit normalverteilt sind. Der KSA-Test kann genutzt werden, um zu testen, ob diese Annahme verworfen werden muss oder (unter Beachtung des -Fehlers) beibehalten werden kann.

Konzeption

Darstellung des Kolmogorow-Smirnow-Anpassungstest. Die rote Linie ist die Verteilungsfunktion der Nullhypothese, die blaue Linie ist die empirische Verteilungsfunktion der beobachteten Werte und der schwarze Pfeil illustriert den Wert der Teststatistik .

Das Konzept wird anhand des Kolmogorow-Smirnow-Anpassungstest erläutert, wobei der Vergleich zweier Merkmale analog ist. Man betrachtet ein statistisches Merkmal , dessen Verteilung in der Grundgesamtheit unbekannt ist und die eine stetige Verteilungsfunktion besitzt. Die zweiseitig formulierten Hypothesen lauten dann:

Nullhypothese:

Alternativhypothese:

Die Nullhypothese postuliert also, dass die Zufallsvariable die Verteilungsfunktion besitzt, während die Alternativhypothese besagt, dass eine andere Verteilungsfunktion besitzt.

Es liegen beobachtete Werte als Realisierungen von stochastisch unabhängigen und identisch verteilten Zufallsvariablen vor, die jeweils dieselbe stetige Verteilungsfunktion haben. Der Kolmogorow-Smirnow-Anpassungstest basiert auf der Abweichung der zufälligen empirischen Verteilungsfunktion

von der durch die Nullhypothese behaupteten Verteilungsfunktion . Dazu wird die Teststatistik

gebildet, wobei sup das Supremum bezeichnet. (Das Supremum anstelle des Maximums ist erforderlich, da der größte Abstand an einer Sprungstelle der empirischen Verteilungsfunktion auftreten kann, wobei der linksseitige Grenzwert der empirischen Verteilungsfunktion an der Sprungstelle zum größten Abstand führen kann, der durch Maximum nicht erreicht würde. Mithilfe der Supremumsnorm kann die Teststatistik in der Form geschrieben werden.) ist eine Zufallsvariable mit einer Wahrscheinlichkeitsverteilung, die im Allgemeinen von und von abhängt. Wenn die Nullhypothese richtig ist, hängt die Wahrscheinlichkeitsverteilung von nur von ab. Falls zusätzlich die Verteilungsfunktion stetig ist, hängt die Wahrscheinlichkeitsverteilung von nicht von ab. Die Teststatistik ist dann eine verteilungsfreie Statistik bezüglich der Klasse aller Wahrscheinlichkeitsverteilungen mit stetiger Verteilungsfunktion.

Testdurchführung

Aus den beobachteten Werten ergibt sich eine konkrete empirische Verteilungsfunktion

und mit dieser ein realisierter Wert der Teststatistik . Bei einer Verletzung der Nullhypothese rechnet man mit eher größeren Werten der Teststatistik als bei Richtigkeit der Nullhypothese. Daher wird die Nullhypothese für große Werte von abgelehnt. Genauer wird zu vorgegebenem Signifikanzniveau die Nullhypothese zugunsten der Alternativhypothese abgelehnt, falls der Wert größer als das -Quantil der Verteilung von ist. Das benötigte -Quantil kann numerisch ermittelt oder aus Tabellen abgelesen werden.

Anstelle der Teststatistik wird auch die Teststatistik verwendet. Dies ist eine mögliche Fehlerquelle bei der Testdurchführung, da in der Literatur sowohl Tabellen mit Quantilen der Verteilung von als auch von vorliegen.

Asymptotik und approximativer Test

Wenn die Nullhypothese richtig ist, konvergiert für über alle Grenzen wachsenden Stichprobenumfang fast sicher gegen Null (Satz von Gliwenko-Cantelli). Dagegen konvergiert die modifizierte Teststatistik

für wachsenden Stichprobenumfang gegen die so genannte Kolmogorow-Verteilung, die von Kolmogorow im Jahr 1933 veröffentlicht wurde.[1] Für hinreichend große Stichprobenumfänge kann die Kolomogorow-Verteilung als Approximation der Verteilung von verwendet werden. Wenn man nun den Test mit Hilfe der -Quantile der Kolmogorow-Verteilung durchführt, erhält man einen Test mit approximativem Signifikanzniveau .

Vorgehensweise beim Einstichprobenproblem (Anpassungstest)

Von einer reellen Zufallsvariablen liegen Beobachtungswerte () vor, die bereits aufsteigend sortiert sind: . Von diesen Beobachtungen wird die relative Summenfunktion (Summenhäufigkeit, empirische Verteilungsfunktion) ermittelt. Diese empirische Verteilung wird nun mit der entsprechenden hypothetischen Verteilung der Grundgesamtheit verglichen: Es wird der Wert der Wahrscheinlichkeitsverteilung an der Stelle bestimmt: . Wenn tatsächlich dieser Verteilung gehorcht, müssten die beobachtete Häufigkeit und die erwartete Häufigkeit in etwa gleich sein.

Falls stetig ist, kann die Teststatistik auf folgende Weise berechnet werden: Es werden für jedes die absoluten Differenzen

und

berechnet („o“ für oben, „u“ für unten), wobei gesetzt wird. Es wird sodann die absolut größte Differenz aus allen Differenzen , ermittelt. Wenn einen kritischen Wert übersteigt, wird die Hypothese bei einem Signifikanzniveau abgelehnt.

Bis liegen die kritischen Werte tabelliert vor.[2] Für größere können sie näherungsweise mit Hilfe der Formel

bestimmt werden.[3] Aus dieser Näherungsformel ergeben sich die in der unten stehenden Tabelle aufgeführten Formeln für den Bereich .

Vorgehensweise beim Zweistichprobenproblem

Liegt nun zusätzlich zur obigen Zufallsvariablen eine entsprechende Zufallsvariable vor (mit geordneten Werten ), so kann durch den Zweistichprobentest überprüft werden, ob und derselben Verteilungsfunktion folgen. Die Hypothesen lauten:

Nullhypothese:

(Die Zufallsvariablen und besitzen die gleiche Wahrscheinlichkeitsverteilung.)

Alternativhypothese:

(Die Zufallsvariable besitzt eine andere Wahrscheinlichkeitsverteilung als .)

Der Kolmogorow-Smirnow-Test vergleicht die empirischen Verteilungsfunktionen (relativen Summenfunktionen) und analog zum Einstichprobentest anhand ihrer absoluten Differenzen mittels der Teststatistik

.

Die Nullhypothese wird bei einem Signifikanzniveau abgelehnt, falls den kritischen Wert überschreitet. Für kleine Werte von und liegen die kritischen Werte tabelliert vor.[4][5] Für große Werte von und wird die Nullhypothese abgelehnt, falls

,

wobei für große und näherungsweise als

berechnet werden kann.

Zahlenbeispiel

Vergleich von empirischer und theoretischer Verteilung des Zahlenbeispiels: Links ein Histogramm mit Normalverteilungskurve, rechts die theoretische und die empirische Verteilungsfunktion

In einem Unternehmen, das hochwertige Parfüms herstellt, wurde im Rahmen der Qualitätssicherung an einer Abfüllanlage die abgefüllte Menge für Flakons gemessen. Es ist das Merkmal : Abgefüllte Menge in ml.

Es soll geprüft werden, ob noch die bekannten Parameter der Verteilung von gelten.

Zunächst soll bei einem Signifikanzniveau getestet werden, ob das Merkmal in der Grundgesamtheit überhaupt normalverteilt mit den bekannten Parametern und ist, also

mit als Normalverteilungssymbol. Es ergibt sich folgende Tabelle:

Hier bezeichnen die -te Beobachtung, den Wert der Summenfunktion der -ten Beobachtung und den Wert der Normalverteilungsfunktion an der Stelle mit den genannten Parametern. Die nächsten Spalten geben die oben angeführten Differenzen an. Der kritische Wert, der bei und zur Ablehnung führte, wäre der Betrag .[2] Die größte absolute Abweichung in der Tabelle ist in der 3. Zeile. Dieser Wert ist größer als der kritische Wert, daher wird die Hypothese abgelehnt. Es ist also zu vermuten, dass die Verteilungshypothese falsch ist. Das kann bedeuten, dass die abgefüllte Menge nicht mehr normalverteilt ist, dass sich die durchschnittliche Abfüllmenge verschoben hat oder auch, dass sich die Varianz der Abfüllmenge verändert hat.

Eigenschaften des KS-Tests

Beim Einstichprobenproblem ist der KS-Test im Gegensatz etwa zum -Test auch für kleine Stichproben geeignet.[6]

Der Kolmogorow-Smirnow-Test ist als nichtparametrischer Test sehr stabil und unanfällig. Ursprünglich wurde der Test für stetig verteilte metrische Merkmale entwickelt; er kann aber auch für diskrete und sogar rangskalierte Merkmale verwendet werden. In diesen Fällen ist der Test etwas weniger trennscharf, d. h. die Nullhypothese wird seltener abgelehnt als im stetigen Fall.

Ein großer Vorteil besteht darin, dass die zugrundeliegende Zufallsvariable keiner Normalverteilung folgen muss. Dies macht den Test vielseitig einsetzbar, bedingt aber auch seinen Nachteil, denn der KS-Test hat allgemein eine geringe Teststärke.

Alternative Tests

Der Lilliefors-Test ist eine Anpassung des Kolmogorow-Smirnow-Tests für die Testung auf Normalverteilung mit unbekanntem Mittelwert und unbekannter Varianz. Mögliche Alternativen zum KS-Test sind der Cramér-von-Mises-Test, der für beide Anwendungsfälle geeignet ist, sowie der Anderson-Darling-Test für den Vergleich einer Stichprobe mit einer hypothetischen Wahrscheinlichkeitsverteilung.

Literatur

Zum Kolmogorow-Smirnow-Anpassungstest

  • Jürgen Hedderich, Lothar Sachs: Angewandte Statistik. Methodensammlung mit R. 17., überarbeitete und ergänzte Auflage. Springer Spektrum, Berlin / Heidelberg 2018, ISBN 978-3-662-62293-3, 7.2.6 Kolmogoroff-Smirnoff Anpassungstest, S. 494–497, doi:10.1007/978-3-662-62294-0.
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Kolmogorow-Test, S. 187–188.
  • Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, 3.4.5.2 Kolmogorov-Smirnov-Anpassungstest, S. 577–579.

Zum Kolmogorow-Smirnow-Zweistichprobentest

  • Jürgen Hedderich, Lothar Sachs: Angewandte Statistik. Methodensammlung mit R. 17., überarbeitete und ergänzte Auflage. Springer Spektrum, Berlin / Heidelberg 2018, ISBN 978-3-662-62293-3, 7.4.9 Vergleich zweier unabhängiger Stichproben nach Kolmogoroff/Smirnoff, S. 592–594, doi:10.1007/978-3-662-62294-0.
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Kolmogorow-Smirnow-Test, S. 185–186.
  • Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, 3.4.4.2 Kolmogorov-Smirnov-Homogenitätstest, S. 573–575.

Einzelnachweise und Anmerkungen

  1. Sulla determinazione empirica di una legge di distribuzione. In: Giornale dell’Istituto italiano degli attuari. Band IV, Nr. 1, 1933, S. 83–91 (italienisch, sbn.it).
  2. a b Critical values for the Kolmogorov-Smirnov Test for goodness of fit. Archiviert vom Original am 18. August 2016; abgerufen am 18. Dezember 2016.
  3. Lothar Sachs, Jürgen Hedderich: Statistik: Angewandte Statistik. 12. Auflage. Springer, Berlin/ Heidelberg 2006, S. 338.
  4. Pearson E.S. and Hartley, H.O. (Hrsg.): Biometrika Tables for Statisticians. Band 2. Cambridge University Press, 1972, ISBN 0-521-06937-8, S. 117–123, Tables 54, 55 (englisch).
  5. Tabelle der kritischen Werte für den Zweistichprobentest (Memento vom 13. Juni 2013 im Internet Archive) (PDF; 177 kB)
  6. Jürgen Janssen, Wilfried Laatz: Statistische Datenanalyse mit SPSS für Windows. 6. Auflage. Springer, 2007, S. 569.