Kolmogorow-Smirnow-Test
Wir werden ihn in Kürze checken und bearbeiten.
Wir werden ihn in Kürze checken und bearbeiten.
Definition
Der Kolmogorow-Smirnow-Test, kurz KS-Test, ist ein nichtparametrisches statistisches Testverfahren zum Vergleich von Verteilungsfunktionen. Er prüft, ob eine Stichprobe einer vorgegebenen theoretischen Verteilung folgt (Ein-Stichproben-KS-Test) oder ob sich zwei empirische Stichproben hinsichtlich ihrer Verteilung signifikant unterscheiden (Zwei-Stichproben-KS-Test). Maßgeblich ist dabei die maximale Abweichung zwischen den kumulativen Verteilungsfunktionen.
Hintergrund
Der KS-Test wird vor allem im Rahmen explorativer Datenanalysen eingesetzt, insbesondere zur Überprüfung von Verteilungsannahmen. Da er keine Annahmen über die konkrete Form der zugrunde liegenden Verteilung erfordert, eignet er sich auch für schiefe oder ausreißerbehaftete Daten. Ziel ist es, anhand eines globalen Abweichungsmaßes zu beurteilen, ob beobachtete Unterschiede zwischen Verteilungen statistisch erklärbar sind.
Testprinzip
Zentrales Testkriterium ist die Teststatistik D, definiert als die maximale absolute Differenz zwischen zwei kumulativen Verteilungsfunktionen.
Beim Ein-Stichproben-KS-Test wird die empirische Verteilungsfunktion einer Stichprobe mit einer theoretischen Verteilungsfunktion verglichen. Beim Zwei-Stichproben-KS-Test werden die empirischen Verteilungsfunktionen zweier unabhängiger Stichproben gegenübergestellt. Die Nullhypothese besagt, dass keine Unterschiede zwischen den verglichenen Verteilungen bestehen. Mit zunehmender Größe von D nimmt die Evidenz gegen die Nullhypothese zu.
Voraussetzungen
Der KS-Test setzt unabhängige Beobachtungen voraus und ist primär für metrisch skalierte, kontinuierliche Daten konzipiert. Bei diskreten Daten oder bei Bindungen (ties), etwa infolge von Rundung oder kategorialer Messwerte, ist der Test häufig konservativ, sodass p-Werte tendenziell überschätzt werden. Für den klassischen Ein-Stichproben-KS-Test wird angenommen, dass die Parameter der theoretischen Verteilung a priori festgelegt sind. Werden diese aus den Daten geschätzt, ist die ursprüngliche Testverteilung nicht mehr exakt gültig.
Varianten
Beim Ein-Stichproben-KS-Test mit geschätzten Parametern, insbesondere bei der Prüfung auf Normalverteilung, wird häufig der Lilliefors-Test als modifizierte Variante angewendet. Der Zwei-Stichproben-KS-Test erfordert keine Annahmen über die Form der zugrunde liegenden Verteilungen.
Anwendungsgebiete
In der medizinischen und psychologischen Forschung findet der KS-Test breite Anwendung zur Prüfung von Verteilungsannahmen vor dem Einsatz parametrischer Verfahren. Weitere Einsatzgebiete sind unter anderem die Qualitätskontrolle, die Signalverarbeitung und die Ökonometrie, insbesondere bei der Analyse kontinuierlicher Messdaten.
Interpretation
Das Testergebnis wird üblicherweise als p-Wert angegeben. Ein p-Wert unterhalb des gewählten Signifikanzniveaus spricht für eine signifikante Abweichung zwischen den verglichenen Verteilungen. Der KS-Test liefert dabei ausschließlich ein globales Abweichungsmaß und erlaubt keine Aussage über die Art der Abweichung, etwa hinsichtlich Schiefe oder Kurtosis. Abweichungen im Zentrum der Verteilung werden dabei häufig sensitiver erfasst als Unterschiede in den Randbereichen.
Vorteile und Limitationen
Zu den Vorteilen des KS-Tests zählen seine Nichtparametrizität, die einfache Berechnung und die breite Anwendbarkeit. Limitationen bestehen in der vergleichsweise geringen Teststärke bei kleinen Stichproben sowie in der eingeschränkten Eignung zur Normalverteilungsprüfung bei geschätzten Parametern. In diesen Fällen werden häufig alternative Verfahren wie der Shapiro-Wilk-Test bevorzugt.
Abgrenzung
Im Unterschied zum Chi-Quadrat-Anpassungstest, der typischerweise auf klassierte oder kategoriale Daten angewendet wird, arbeitet der KS-Test ohne Klassenbildung auf Basis kumulativer Verteilungsfunktionen. Gegenüber anderen Tests auf Normalverteilung ist er konzeptionell einfach, weist jedoch häufig eine geringere Sensitivität auf.
Literatur
Bortz J, Schuster C. Statistik für Human- und Sozialwissenschaftler. 7. Auflage. Springer; 2010.