Intervallskala
Englisch: interval scale
Definition
Die Intervallskala ist ein metrisches Skalenniveau, bei dem die Abstände zwischen den Merkmalsausprägungen gleich groß und damit quantitativ interpretierbar sind. Im Gegensatz zur Ordinalskala können Differenzen zwischen Werten berechnet werden. Sie besitzt jedoch keinen absoluten Nullpunkt. Ein Wert von null bedeutet somit nicht das völlige Fehlen des Merkmals.
Eigenschaften
Intervallskalierte Variablen erlauben die Berechnung von Differenzen, Mittelwerten und Standardabweichungen. Aussagen über Verhältnisse sind jedoch unzulässig, da der Nullpunkt willkürlich gewählt ist. So ist 20 °C nicht doppelt so warm wie 10 °C. Statistisch können bei intervallskalierten Daten parametrische Verfahren wie t-Tests, lineare Regressionen oder Varianzanalysen angewendet werden.
Beispiele
Typische intervallskalierte Variablen sind Temperatur in Grad Celsius oder Fahrenheit, Intelligenzquotient (IQ), Kalenderjahre oder psychologische Skalen, die gleich große Abstände zwischen Werten annehmen.
Anwendung
In der empirischen Forschung werden Intervallskalen häufig für psychologische Testverfahren, Skalenwerte oder standardisierte Messungen verwendet. Auch viele medizinische Scores besitzen intervallähnlichen Charakter, da sie aus gleichabständigen Bewertungen zusammengesetzt sind. Das Intervallniveau ermöglicht die Anwendung einer Vielzahl inferenzstatistischer Verfahren, die auf linearen Beziehungen zwischen Variablen beruhen.
Quelle
- Bortz, J., & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler. Springer-Verlag Berlin Heidelberg.
- Statista: Definition Intervallskala