Spearman-Rangkorrelation: Definition, Formel & Beispiele

Die Spearman-Rangkorrelation (ρ) misst den monotonen Zusammenhang zweier Variablen auf Basis von Rängen. Ideal für ordinale Daten und nicht-normalverteilte metrische Variablen. Mit Formel, SPSS- und R-Beispiel.

Definition

Die Spearman-Rangkorrelation (Spearman's ρ, rho) ist ein nicht-parametrisches Zusammenhangsmaß, das die Stärke und Richtung eines monotonen Zusammenhangs zwischen zwei Variablen quantifiziert. Im Gegensatz zur Pearson-Korrelation, die einen linearen Zusammenhang auf Basis der Originalwerte misst, arbeitet Spearman ausschließlich mit den Rangplätzen der Beobachtungen.

Merke: Spearman misst, ob die Werte gemeinsam steigen oder fallen — nicht ob sie linear zusammenhängen. Ein perfekt exponentieller Zusammenhang liefert ρ = 1, weil die Ränge perfekt übereinstimmen, obwohl die Pearson-Korrelation deutlich kleiner wäre.

Spearman ist die Methode der Wahl, wenn:

  • mindestens eine Variable ordinalskaliert ist (z.B. Likert-Skala, Schmerz-NRS, Tumorstadium),
  • die Voraussetzungen der Pearson-Korrelation (Normalverteilung, Linearität) verletzt sind,
  • Ausreißer vorliegen, die Pearson stark verzerren würden.

Formel

Bei keinen Bindungen (jeder Wert kommt nur einmal vor) gilt die einfache Formel:

$$\rho = 1 - \frac{6 \sum d_i^2}{n(n^2 - 1)}$$

mit:

  • d_i = Differenz der Ränge der i-ten Beobachtung (Rang in X minus Rang in Y)
  • n = Stichprobengröße

Bei Bindungen (Ties — z.B. mehrere Probanden mit demselben Likert-Wert) wird üblicherweise die Pearson-Formel auf die Ränge angewendet:

$$\rho = \frac{\sum (R_i - \bar{R})(S_i - \bar{S})}{\sqrt{\sum (R_i - \bar{R})^2 \sum (S_i - \bar{S})^2}}$$

Statistik-Software wendet diese Tie-korrigierte Variante automatisch an.

Voraussetzungen

Spearman hat deutlich schwächere Voraussetzungen als Pearson:

  • Skalenniveau mindestens ordinal — beide Variablen müssen sinnvoll in eine Rangordnung gebracht werden können
  • Monotoner Zusammenhang — wenn X steigt, steigt (oder fällt) Y konsistent. Es muss nicht linear sein
  • Unabhängige Beobachtungen — keine wiederholten Messungen am selben Probanden ohne entsprechende Korrektur
  • Keine Normalverteilungsannahme — gerade das macht Spearman robust

Praxis-Tipp: Erstelle vor jeder Korrelationsanalyse einen Streudiagramm-Plot. Erkennst du einen u-förmigen oder anders nicht-monotonen Zusammenhang, ist auch Spearman ungeeignet — dann wird ρ ≈ 0 trotz starkem Zusammenhang.

Interpretation

Der Wertebereich von ρ liegt zwischen −1 und +1:

ρ-Wert Interpretation
ρ = +1 perfekter monoton steigender Zusammenhang
0,7 ≤ ρ < 1 starker positiver Zusammenhang
0,4 ≤ ρ < 0,7 mittlerer positiver Zusammenhang
0,1 ≤ ρ < 0,4 schwacher positiver Zusammenhang
ρ ≈ 0 kein monotoner Zusammenhang
−0,4 < ρ ≤ −0,1 schwacher negativer Zusammenhang
−0,7 < ρ ≤ −0,4 mittlerer negativer Zusammenhang
−1 < ρ ≤ −0,7 starker negativer Zusammenhang
ρ = −1 perfekter monoton fallender Zusammenhang

Diese Schwellen (nach Cohen, modifiziert) sind Konvention — fachspezifisch können andere Cut-offs üblich sein. Berichtet wird neben ρ stets der p-Wert und idealerweise das 95%-Konfidenzintervall.

Wichtig: ρ² ist nicht direkt als Anteil erklärter Varianz interpretierbar — diese Interpretation gilt nur für Pearson. Spearman bezieht sich auf erklärte Varianz der Ränge.

Klinisches Anwendungsbeispiel

Studie: Zusammenhang zwischen subjektivem Schmerzempfinden (NRS, 0–10) und objektiver Einschränkung der Mundöffnung (mm) bei n = 45 Patienten mit Kiefergelenksdysfunktion (CMD).

  • Schmerz-NRS: ordinalskaliert (0 bis 10)
  • Mundöffnung: metrisch (mm), aber leicht rechtsschief verteilt
  • Pearson wäre wegen Skalenniveau und Schiefe nicht angemessen → Spearman

Ergebnis:

  • ρ = −0,62
  • p < 0,001
  • 95%-KI: [−0,77; −0,40]

Interpretation: Es besteht ein starker negativer monotoner Zusammenhang — je höher der berichtete Schmerz, desto geringer die maximale Mundöffnung. Der Effekt ist statistisch hochsignifikant. Beachte: Dies ist eine Korrelation, keine Kausalität — Schmerz könnte die Öffnung limitieren, oder eingeschränkte Mechanik verursacht Schmerz, oder eine dritte Variable (z.B. Entzündung) erklärt beides.

In SPSS berechnen

Analysieren → Korrelation → Bivariat

Im Dialog:

  1. Beide Variablen in "Variablen" verschieben
  2. Unter "Korrelationskoeffizienten": Häkchen bei Spearman setzen (Pearson abwählen, sofern nicht beide gewünscht)
  3. "Signifikanztest": üblicherweise zweiseitig
  4. "Signifikante Korrelationen markieren" aktivieren

Im Output unter "Korrelationen" findest du:

  • Korrelationskoeffizient = ρ
  • Sig. (2-seitig) = p-Wert
  • N = effektive Stichprobengröße (paarweise vorhandene Werte)

SPSS gibt kein Konfidenzintervall für Spearman aus — dieses muss bei Bedarf via Bootstrap-Modul oder R berechnet werden. Mehr in unserer SPSS-Auswertungsanleitung.

In R berechnen

# Basisvariante mit cor.test()
result <- cor.test(daten$schmerz_nrs, daten$mundoeffnung,
                   method = "spearman",
                   exact = FALSE)
print(result)
# Spearman's rank correlation rho
# S = 24351, p-value = 1.2e-05
# rho = -0.6234

# Konfidenzintervall via Bootstrap (Paket: boot)
library(boot)
spearman_boot <- function(data, idx) {
  cor(data[idx, 1], data[idx, 2], method = "spearman")
}
boot_result <- boot(daten[, c("schmerz_nrs", "mundoeffnung")],
                    spearman_boot, R = 2000)
boot.ci(boot_result, type = "perc")
# 95% CI: (-0.77, -0.40)

Bei Bindungen (häufig bei Likert-Daten) gibt R die Warnung "Cannot compute exact p-value with ties" — das ist unkritisch; mit exact = FALSE wird die asymptotische Approximation verwendet, die bei n ≥ 20 sehr zuverlässig ist. Mehr Beispiele in unserer R-Statistik-Anleitung.

Häufige Fehler

Fehler 1: Spearman bei nicht-monotonem Zusammenhang

Bei u-förmigen oder zyklischen Zusammenhängen liefert Spearman ρ ≈ 0 — obwohl die Variablen stark zusammenhängen. Immer Streudiagramm zuerst!

Fehler 2: ρ² als "erklärte Varianz" interpretieren

Anders als bei Pearson (r² = R²) ist ρ² nicht direkt der Anteil erklärter Varianz der Originaldaten. Diese Verwechslung ist in publizierten Arbeiten leider häufig.

Fehler 3: Kausalität aus Korrelation ableiten

Eine signifikante Spearman-Korrelation zeigt einen statistischen Zusammenhang, keinen ursächlichen. "NRS korreliert mit Mundöffnung" heißt nicht "Schmerz verursacht eingeschränkte Öffnung".

Fehler 4: Spearman bei wirklich linearen, normalverteilten Daten

Sind alle Voraussetzungen für Pearson erfüllt, ist Pearson statistisch effizienter (höhere Power). Spearman ist die robustere, aber nicht universell überlegene Wahl.

Fehler 5: Mehrere Korrelationen ohne α-Korrektur

Werden in einer explorativen Analyse 20+ Variablenpaare getestet, sollte α via Bonferroni-Korrektur oder FDR adjustiert werden — sonst sind falsch-positive Befunde fast garantiert.

Fehler 6: Kleine Stichproben (n < 10)

Bei sehr kleinen Stichproben ist die Schätzung von ρ instabil und Konfidenzintervalle sehr breit. Faustregel: mindestens n ≥ 20, besser n ≥ 30 für interpretierbare Ergebnisse.

Verwandte Konzepte

  • Pearson-Korrelation — parametrisches Pendant, misst lineare Zusammenhänge bei metrischen, normalverteilten Daten
  • Kendall-Tau (τ) — alternatives rangbasiertes Maß, robuster bei kleinen Stichproben und vielen Bindungen
  • Regression — geht über Korrelation hinaus und modelliert die funktionale Abhängigkeit
  • Likert-Skala — typisches ordinales Skalenformat, bei dem Spearman die Korrelationsmethode der Wahl ist
  • p-Wert — gibt die statistische Signifikanz der gefundenen Korrelation an
  • Konfidenzintervall — quantifiziert die Präzision der Punktschätzung von ρ

Häufige Fragen

  • „Wann nehme ich Spearman und wann Pearson?" → Spearman, wenn mindestens eine Variable ordinalskaliert ist (z.B. Likert, NRS, Tumorstadium), wenn die Daten nicht normalverteilt sind, wenn der Zusammenhang nicht-linear aber monoton ist, oder wenn Ausreißer vorliegen. Pearson, wenn beide Variablen metrisch und annähernd normalverteilt sind und ein linearer Zusammenhang vermutet wird. Im Zweifel ist Spearman die robustere Wahl."
  • „Was bedeutet ein ρ von 0,3?" → Ein ρ von 0,3 zeigt einen schwachen positiven monotonen Zusammenhang — d.h. mit steigender X-Variable steigt tendenziell auch Y, aber der Zusammenhang ist nicht stark. Ob das klinisch relevant ist, hängt vom Kontext ab. Berichte immer auch p-Wert, Stichprobengröße und idealerweise das 95%-Konfidenzintervall.
  • „Kann Spearman mit Likert-Daten verwendet werden?" → Ja, das ist sogar der klassische Anwendungsfall. Likert-Skalen sind ordinalskaliert, und Spearman behandelt sie korrekt als Ränge. Pearson wäre hier streng genommen unzulässig, wird in der Praxis bei 5- oder 7-stufigen Likert-Skalen aber oft pragmatisch akzeptiert. Mehr dazu in unserem Beitrag zur Likert-Auswertung.
  • „Was ist der Unterschied zwischen Spearman und Kendall-Tau?" → Beide sind rangbasiert. Spearman basiert auf den quadrierten Rangdifferenzen, Kendall-Tau auf der Anzahl konkordanter und diskordanter Paare. Kendall ist bei kleinen Stichproben (n < 30) und vielen Bindungen meist robuster. In sehr großen Stichproben liefern beide praktisch identische Schlussfolgerungen, wobei |τ| typischerweise kleiner ist als |ρ|.
  • „Warum bekomme ich in R die Warnung 'Cannot compute exact p-value with ties'?" → Diese Meldung erscheint, wenn in deinen Daten Bindungen vorliegen — also gleiche Werte, die denselben Rang erhalten. Die exakte p-Wert-Berechnung ist dann nicht möglich; R verwendet automatisch eine asymptotische Approximation. Bei n ≥ 20 ist diese sehr zuverlässig. Mit exact = FALSE unterdrückst du die Warnung explizit.
  • „Bedeutet ρ = 0, dass keinerlei Zusammenhang besteht?" → Nein. ρ = 0 bedeutet nur, dass kein monotoner Zusammenhang besteht. Eine perfekt u-förmige oder zyklische Beziehung kann ρ = 0 ergeben, obwohl X und Y sehr eng zusammenhängen. Daher ist das Streudiagramm vor jeder Korrelationsanalyse essenziell.
  • „Wie berichte ich Spearman in einer Publikation korrekt?" → Empfohlen: "Eine Spearman-Rangkorrelation ergab einen starken negativen Zusammenhang zwischen Schmerz-NRS und Mundöffnung (ρ = −0,62; 95%-KI [−0,77; −0,40]; p < 0,001; n = 45)." Wichtig sind: ρ-Wert, p-Wert, Stichprobengröße und idealerweise das Konfidenzintervall.
  • „Welche Stichprobengröße brauche ich für Spearman?" → Für stabile Schätzungen mindestens n = 20, besser n ≥ 30. Um eine moderate Korrelation (ρ ≈ 0,3) mit 80 % Power und α = 0,05 zu detektieren, sind ungefähr n = 84 nötig. Eine genaue Fallzahlplanung erfolgt mit G*Power oder dem R-Paket pwr. Mehr dazu in unserem Leitfaden Statistik in der Doktorarbeit.
  • „Kann ich Spearman auch für mehr als zwei Variablen verwenden?" → Direkt nur für Variablenpaare. Für mehrere Variablen erstellt man eine Korrelationsmatrix (alle paarweisen Spearman-Korrelationen). Wichtig: Bei vielen gleichzeitigen Tests muss α korrigiert werden (Bonferroni, Holm oder FDR), sonst steigt das Risiko falsch-positiver Befunde stark an.
  • „Was tun, wenn die Variablen sowohl Pearson- als auch Spearman-Voraussetzungen erfüllen?" → Dann ist Pearson statistisch effizienter (höhere Power, engere Konfidenzintervalle). Bei perfekt linearen, normalverteilten Daten liefern beide ähnliche Werte. Manche Autoren berichten beide nebeneinander — das ist nur sinnvoll, wenn man bewusst zeigen will, dass das Ergebnis robust gegenüber der Methodenwahl ist.
✅ Fachlich geprüft von PD Dr. Dr. Andreas Vollmer