z-Transformation: Formel, Berechnung & Anwendung in der Statistik

z-Transformation einfach erklärt: Formel, Berechnung, z-Wert-Tabelle und Anwendung auf Likert-Skalen. Mit SPSS- & R-Anleitung für Doktorarbeiten und Abschlussarbeiten.

Statistik · Dr. mult. Dr. h.c. Babak Saravi · 25. März 2026 · 14 Min. Lesezeit

Die z-Transformation (auch z-Standardisierung oder Standardisierung) ist eines der fundamentalsten Verfahren der deskriptiven und inferentiellen Statistik — und zugleich eines der am häufigsten missverstandenen. Ob Gruppenvergleich über unterschiedliche Messinstrumente hinweg, Identifikation von Ausreißern, Voraussetzungsprüfung für multivariate Verfahren oder die Vergleichbarkeit von Likert-Skalen mit unterschiedlichen Skalierungen: Die z-Transformation macht Daten vergleichbar, die es in ihrer Rohform nicht wären.

Dieser Artikel erklärt die mathematische Grundlage, zeigt die korrekte Anwendung in medizinischen Doktorarbeiten und Abschlussarbeiten, und behandelt den methodisch sensiblen Sonderfall der z-Transformation von Likert-Daten — mit konkreten SPSS- und R-Anleitungen.

Was ist die z-Transformation?

Die z-Transformation überführt beliebig skalierte metrische Daten in eine einheitliche, dimensionslose Skala: die Standardnormalverteilung mit Mittelwert μ = 0 und Standardabweichung σ = 1. Der resultierende Wert — der z-Wert (auch z-Score) — gibt an, wie viele Standardabweichungen ein einzelner Messwert vom Mittelwert seiner Verteilung entfernt liegt.

Die Formel:

z = (x − x̄) / s

Dabei ist x der Rohwert, x̄ der arithmetische Mittelwert der Stichprobe und s die Standardabweichung der Stichprobe. Bei bekannten Populationsparametern (z.B. IQ-Normdaten) wird stattdessen mit μ und σ gerechnet:

z = (x − μ) / σ

Was der z-Wert bedeutet:

Merke: Die z-Transformation verändert weder die Form der Verteilung noch die Rangfolge der Werte. Sie verschiebt und skaliert lediglich die Achse. Eine schiefe Verteilung bleibt nach der z-Transformation schief — sie wird nicht „normalverteilt gemacht".

Warum z-Transformation? Drei zentrale Anwendungen

1. Vergleichbarkeit unterschiedlicher Messgrößen

Stellen Sie sich vor, eine Studie erhebt sowohl den systolischen Blutdruck (mmHg) als auch den BMI (kg/m²). Ein Patient hat einen Blutdruck von 155 mmHg und einen BMI von 32. Welcher Wert weicht stärker von der Norm ab? In Rohwerten ist diese Frage nicht beantwortbar — die Skalen sind inkommensurabel.

Nach der z-Transformation werden beide Werte auf dieselbe Skala gebracht: Wenn z(Blutdruck) = +1,8 und z(BMI) = +2,4, dann weicht der BMI relativ stärker von der Norm ab als der Blutdruck — obwohl 155 mmHg absolut „bedrohlicher" klingt als ein BMI von 32.

2. Identifikation von Ausreißern

In der Datenbereinigung vor der eigentlichen statistischen Auswertung werden z-Werte genutzt, um potenzielle Ausreißer systematisch zu identifizieren. Die gebräuchlichsten Schwellenwerte:

Wichtig: Ausreißer dürfen in einer Doktorarbeit nie kommentarlos entfernt werden. Die Entscheidung, ab welchem z-Wert ein Ausreißer ausgeschlossen wird, muss im Methodenteil vorab definiert und begründet werden.

3. Voraussetzung für multivariate Verfahren

Viele multivariate Methoden — insbesondere die Hauptkomponentenanalyse (PCA), Faktorenanalyse und bestimmte Machine-Learning-Algorithmen — setzen voraus, dass alle Variablen auf derselben Skala liegen. Ohne z-Standardisierung dominieren Variablen mit großer Varianz (z.B. Laborwerte in µg/l) die Analyse, während Variablen mit kleiner Varianz (z.B. Schmerzskalen 0–10) kaum Gewicht erhalten. Die z-Transformation löst dieses Problem, indem sie alle Variablen auf Einheitsvarianz bringt.

Rechenbeispiel: z-Transformation Schritt für Schritt

Klinisches Szenario: In einer Studie zur postoperativen Rehabilitation wird die Griffstärke (in kg) von 8 Patienten gemessen:

Patient Griffstärke (kg)
1 28
2 35
3 22
4 40
5 31
6 25
7 38
8 33

Schritt 1 — Mittelwert berechnen: x̄ = (28 + 35 + 22 + 40 + 31 + 25 + 38 + 33) / 8 = 252 / 8 = 31,5 kg

Schritt 2 — Standardabweichung berechnen: s = √[Σ(xᵢ − x̄)² / (n−1)] = √[(12,25 + 12,25 + 90,25 + 72,25 + 0,25 + 42,25 + 42,25 + 2,25) / 7] = √[274 / 7] = √39,14 ≈ 6,26 kg

Schritt 3 — z-Werte berechnen:

Patient Griffstärke (kg) z-Wert
1 28 (28 − 31,5) / 6,26 = −0,56
2 35 (35 − 31,5) / 6,26 = +0,56
3 22 (22 − 31,5) / 6,26 = −1,52
4 40 (40 − 31,5) / 6,26 = +1,36
5 31 (31 − 31,5) / 6,26 = −0,08
6 25 (25 − 31,5) / 6,26 = −1,04
7 38 (38 − 31,5) / 6,26 = +1,04
8 33 (33 − 31,5) / 6,26 = +0,24

Interpretation: Patient 3 liegt 1,52 Standardabweichungen unter dem Mittelwert — seine Griffstärke ist also deutlich unterdurchschnittlich im Vergleich zur Stichprobe. Patient 4 liegt 1,36 Standardabweichungen darüber. Kein Patient überschreitet |z| > 2, es liegen also keine Ausreißer vor.

z-Wert-Tabelle: Wichtige Schwellenwerte

Die z-Wert-Tabelle (auch Standardnormalverteilungstabelle) gibt die kumulative Wahrscheinlichkeit P(Z ≤ z) an — also den Flächenanteil links des z-Werts unter der Standardnormalkurve. Für die häufigsten Anwendungen in der medizinischen Statistik sind folgende Werte besonders relevant:

z-Wert P(Z ≤ z) Bedeutung
−2,576 0,005 Untere Grenze 99%-KI
−1,960 0,025 Untere Grenze 95%-KI
−1,645 0,050 Einseitiger Test α = 0,05
0,000 0,500 Median = Mittelwert
+1,645 0,950 Einseitiger Test α = 0,05
+1,960 0,975 Obere Grenze 95%-KI
+2,576 0,995 Obere Grenze 99%-KI

Merke: Die z-Werte ±1,96 sind der Grund, warum das 95%-Konfidenzintervall als x̄ ± 1,96 × SE berechnet wird. Das ist kein Zufall, sondern folgt direkt aus der Standardnormalverteilung.

z-Transformation und Hypothesentests

Die z-Transformation bildet die mathematische Grundlage zahlreicher statistischer Tests. Der z-Test prüft, ob ein Stichprobenmittelwert signifikant von einem bekannten Populationsmittelwert abweicht — vorausgesetzt, die Populationsstandardabweichung σ ist bekannt und die Stichprobe ist ausreichend groß (n ≥ 30).

Teststatistik des z-Tests:

z = (x̄ − μ₀) / (σ / √n)

Dabei ist x̄ der Stichprobenmittelwert, μ₀ der hypothetische Populationsmittelwert, σ die bekannte Populationsstandardabweichung und n die Stichprobengröße.

Medizinisches Beispiel: Eine Klinik behauptet, dass ihre Patienten nach Hüft-TEP im Mittel 4,2 Tage stationär bleiben. Die historischen Daten (σ = 1,1 Tage) sind bekannt. Eine Stichprobe von n = 50 Patienten ergibt x̄ = 4,6 Tage. Ist der Unterschied signifikant?

z = (4,6 − 4,2) / (1,1 / √50) = 0,4 / 0,156 = 2,57

Da z = 2,57 > 1,96 (kritischer Wert für α = 0,05, zweiseitig), ist der Unterschied statistisch signifikant (p = 0,010). Die mittlere Verweildauer der Stichprobe weicht signifikant vom Referenzwert ab.

In der Praxis ist σ allerdings selten bekannt. Deshalb wird bei unbekannter Populationsstandardabweichung und kleineren Stichproben stattdessen der t-Test verwendet, der die gleiche Grundlogik verfolgt, aber eine breitere Verteilung (t-Verteilung) zugrunde legt. Einen Überblick über die Testauswahl finden Sie im Artikel Statistik für die Doktorarbeit: Welcher Test wann?.

z-Werte beim Mann-Whitney-U-Test und Wilcoxon-Test

Auch bei nicht-parametrischen Tests spielen z-Werte eine zentrale Rolle — allerdings in einer anderen Funktion als bei der z-Standardisierung von Rohdaten.

Beim Mann-Whitney-U-Test und beim Wilcoxon-Vorzeichen-Rang-Test gibt SPSS im Output einen z-Wert aus. Dieser z-Wert ist die standardisierte Teststatistik, die aus der U- bzw. W-Statistik unter Berücksichtigung einer Normalapproximation berechnet wird. Er dient zwei Zwecken: der Signifikanzprüfung (über den zugehörigen p-Wert) und der Berechnung der Effektgröße r:

r = |Z| / √N

Diese Formel ist der Standard für die Effektgrößenberechnung bei nicht-parametrischen Tests — und sie wird von SPSS nicht automatisch ausgegeben. Die manuelle Berechnung und Interpretation ist in jeder Promotion und Masterarbeit obligatorisch.

z-Transformation bei Likert-Skalen: Möglichkeiten und Grenzen

Die Anwendung der z-Transformation auf Likert-Daten ist einer der methodisch sensibelsten Bereiche — und gleichzeitig einer der häufigsten Fehler in medizinischen Abschlussarbeiten. Die Kernfrage lautet: Dürfen ordinale Daten z-standardisiert werden?

Wann die z-Transformation bei Likert-Daten zulässig ist

Summenscores aus mehreren Items: Wenn Sie einen Summenscore aus mindestens 5 Likert-Items gebildet haben (z.B. einen Gesamtscore für „Therapiezufriedenheit" aus 8 Items), wird dieser Score in der medizinischen Forschungspraxis als quasi-metrisch behandelt. In diesem Fall ist die z-Transformation methodisch vertretbar — insbesondere wenn:

Typisches Anwendungsbeispiel: Eine Studie erhebt Lebensqualität mit dem SF-36 (Scores 0–100) und Angst mit dem GAD-7 (Scores 0–21). Um beide Konstrukte im gleichen Diagramm darzustellen oder als Prädiktoren in einer Regressionsanalyse gleichwertig einzubeziehen, werden beide Scores z-standardisiert.

Wann die z-Transformation bei Likert-Daten nicht zulässig ist

Einzelne Likert-Items: Ein einzelnes Item mit 5 Ausprägungen (1–5) ist ordinal. Die z-Transformation setzt implizit voraus, dass die Abstände zwischen den Skalenpunkten gleich groß sind — eine Annahme, die bei einzelnen Likert-Items nicht begründbar ist. Wer ein einzelnes Likert-Item z-transformiert und dann parametrische Tests anwendet, begeht einen methodischen Fehler, den Gutachter sofort erkennen.

Bei stark schiefen Verteilungen: Wenn der Summenscore stark links- oder rechtsschief verteilt ist (z.B. Decken- oder Bodeneffekte bei der Zufriedenheitsmessung), verzerrt die z-Transformation die Interpretation. Ein z-Wert von +1,5 hat bei einer symmetrischen Verteilung eine andere Bedeutung als bei einer stark linksschiefen Verteilung.

Empfehlung für den Methodenteil

Wenn Sie Likert-basierte Summenscores z-transformieren, formulieren Sie im Methodenteil Ihrer Arbeit explizit:

„Die Summenscores der Subskalen wurden z-standardisiert (M = 0, SD = 1), um die Vergleichbarkeit der unterschiedlich skalierten Instrumente zu gewährleisten. Die Behandlung der Summenscores als quasi-metrische Daten folgt der in der klinischen Forschung etablierten Konvention bei Skalen mit ≥ 5 Items und annähernder Normalverteilung (Shapiro-Wilk p > 0,05)."

z-Transformation in SPSS: Schritt-für-Schritt-Anleitung

SPSS bietet zwei Wege zur z-Transformation:

Methode 1: Über die deskriptive Statistik (empfohlen)

1. Analysieren → Deskriptive Statistiken → Deskriptive Statistik
2. Variable(n) in das Feld „Variablen" ziehen
3. Haken setzen bei „Standardisierte Werte als Variablen speichern"
4. OK klicken

SPSS erstellt automatisch eine neue Variable mit dem Präfix Z (z.B. Zblutdruck) in Ihrem Datensatz. Diese enthält die z-Werte.

Methode 2: Manuelle Berechnung über Compute Variable

1. Transformieren → Variable berechnen
2. Zielvariable: z_blutdruck
3. Numerischer Ausdruck: (blutdruck - MEAN(blutdruck)) / SD(blutdruck)
4. Falls MEAN/SD nicht aggregiert funktioniert:
   Vorab Mittelwert und SD in der deskriptiven Statistik ablesen,
   dann direkt einsetzen: (blutdruck - 135.2) / 18.7

Methode 1 ist schneller und weniger fehleranfällig. Methode 2 ist dann nützlich, wenn Sie gegen einen externen Referenzwert (z.B. Populationsnorm) standardisieren möchten.

SPSS-Output prüfen

Nach der z-Transformation sollten Sie kontrollieren:

z-Transformation in R: Kompakte Umsetzung

In R ist die z-Transformation mit der Funktion scale() in einer Zeile erledigt:

# z-Transformation einer einzelnen Variable
df$z_blutdruck <- scale(df$blutdruck)

# z-Transformation mehrerer Variablen gleichzeitig
df[, c("z_bmi", "z_bp", "z_hba1c")] <- scale(df[, c("bmi", "bp", "hba1c")])

# Gegen eine externe Norm standardisieren (z.B. Bevölkerungsnorm)
df$z_iq <- (df$iq - 100) / 15  # IQ: μ = 100, σ = 15

# Kontrolle
mean(df$z_blutdruck)  # sollte ≈ 0 sein
sd(df$z_blutdruck)    # sollte ≈ 1 sein

Für die Visualisierung z-transformierter Daten eignet sich ggplot2:

library(ggplot2)

ggplot(df, aes(x = z_blutdruck)) +
  geom_histogram(aes(y = after_stat(density)), bins = 20, fill = "#2E86C1", alpha = 0.7) +
  stat_function(fun = dnorm, color = "#C0392B", linewidth = 1) +
  labs(x = "z-Wert (Blutdruck)", y = "Dichte",
       title = "z-transformierte Blutdruckwerte mit Normalverteilungskurve") +
  theme_minimal()

Häufige Fehler bei der z-Transformation

Fehler 1: z-Transformation zur „Normalisierung" verwenden. Die z-Transformation macht Daten nicht normalverteilt. Sie verschiebt den Mittelwert auf 0 und skaliert die Streuung auf 1 — die Form der Verteilung bleibt unverändert. Wer nicht-normalverteilte Daten z-transformiert und dann einen parametrischen Test anwendet, hat die Voraussetzung nicht erfüllt. Für tatsächliche Normalisierung brauchen Sie transformierende Verfahren wie Log-Transformation, Box-Cox-Transformation oder den Übergang zu nicht-parametrischen Tests.

Fehler 2: z-Werte zwischen Stichproben vergleichen, ohne gemeinsame Referenz. Wenn Studie A den Blutdruck z-transformiert (x̄ = 130, s = 15) und Studie B ebenfalls (x̄ = 145, s = 20), dann bedeutet z = +1,0 in beiden Studien etwas völlig anderes in absoluten Werten. z-Werte sind nur innerhalb derselben Referenzgruppe vergleichbar — oder wenn gegen eine gemeinsame Populationsnorm standardisiert wird.

Fehler 3: z-Transformation bei nominalen oder einzelnen ordinalen Variablen. Geschlecht (1/2), Blutgruppe (A/B/AB/0) oder ein einzelnes Likert-Item (1–5) sind für die z-Transformation nicht geeignet. Die Formel setzt voraus, dass Mittelwert und Standardabweichung sinnvolle Kennzahlen sind — das ist bei nominalskalierten Daten nicht der Fall. Auch bei ordinalen Einzelitems fehlt die Intervallskalierung, die für eine aussagekräftige Standardisierung nötig wäre.

Fehler 4: Ausreißer vor der z-Transformation nicht prüfen. Extreme Ausreißer verzerren Mittelwert und Standardabweichung — und damit alle z-Werte der gesamten Stichprobe. Es empfiehlt sich, Ausreißer vor der z-Transformation per Boxplot oder IQR-Methode zu identifizieren und die Strategie (Einschluss, Winsorisierung, Ausschluss) im Methodenteil festzulegen.

Fehler 5: z-Transformation bei kleinen Stichproben überinterpretieren. Bei n < 30 sind Mittelwert und Standardabweichung instabile Schätzer — und damit auch die darauf basierenden z-Werte. Interpretieren Sie z-Werte bei kleinen Stichproben zurückhaltend und berichten Sie die Stichprobengröße transparent.

z-Transformation vs. andere Standardisierungsverfahren

Neben der z-Transformation existieren weitere Standardisierungsverfahren, die je nach Anwendungskontext vorzuziehen sind:

Verfahren Formel Ergebnisbereich Anwendung
z-Transformation (x − x̄) / s unbegrenzt (typisch −3 bis +3) Vergleichbarkeit, Ausreißererkennung, multivariate Analysen
Min-Max-Normalisierung (x − min) / (max − min) 0 bis 1 Machine Learning, neuronale Netze
Prozentränge Rang(x) / N × 100 0 bis 100 Nicht-parametrische Normierung, Testdiagnostik
T-Wert-Transformation 50 + 10 × z typisch 20 bis 80 Psychometrie (z.B. MMPI, NEO-FFI)
IQ-Skala 100 + 15 × z typisch 55 bis 145 Intelligenztests
Stanine 5 + 2 × z (gerundet, 1–9) 1 bis 9 Bildungsforschung

Die T-Wert-Transformation (nicht zu verwechseln mit dem t-Test!) und die IQ-Skalierung sind im Grunde lineare Transformationen des z-Werts. Sie vermeiden negative Werte und Dezimalstellen, was in der klinischen Kommunikation praktisch ist.

Anwendungsfall: z-Transformation für Fragebogenvergleiche in der Doktorarbeit

Ein typisches Szenario in einer medizinischen Doktorarbeit oder bei der Fragebogenauswertung: Sie haben verschiedene Messinstrumente verwendet und möchten die Ergebnisse vergleichbar machen.

Beispiel: Eine Studie zur postoperativen Patientenzufriedenheit erhebt drei Konstrukte mit unterschiedlichen Instrumenten:

Ohne z-Transformation sind diese Scores nicht direkt vergleichbar. Nach der Standardisierung können Sie in einem gemeinsamen Profil darstellen, welches Konstrukt bei welchem Patienten am stärksten von der Stichprobennorm abweicht — eine Information, die in Rohwerten nicht ablesbar wäre.

SPSS-Workflow für diesen Anwendungsfall:

1. Summenscores bilden: Transform → Compute Variable
   (z.B. zufriedenheit_sum = SUM(item_1 to item_10))
2. Reliabilität prüfen: Analyze → Scale → Reliability Analysis → Cronbachs Alpha ≥ 0,70
3. Normalverteilung prüfen: Analyze → Descriptive Statistics → Explore → Shapiro-Wilk
4. z-Standardisieren: Analyze → Descriptive Statistics → Descriptives
   → Haken bei „Standardisierte Werte als Variablen speichern"
5. Ergebnis: Neue Variablen Zzufriedenheit_sum, Zgad7_sum, Zeq5d_vas

Für die statistische Auswertung dieser standardisierten Scores gelten die gleichen Testwahlregeln wie für die Rohwerte — die z-Transformation ändert nichts an der Frage, ob parametrisch oder nicht-parametrisch getestet wird. Sie erleichtert aber die Interpretation und die grafische Darstellung erheblich.


Wenn die z-Transformation und ihre korrekte Anwendung im Rahmen Ihrer Doktorarbeit oder Masterarbeit noch Fragen aufwirft, unterstützt das SCIORA Biostatistik-Team Sie bei der Methodenwahl, Datenaufbereitung und publikationsreifen Ergebnisdarstellung.

Weiterführende Artikel im Statistik-Cluster: Statistik für die Doktorarbeit: Welcher Test wann? gibt einen Überblick über die gängigsten Tests; Likert-Skala auswerten behandelt den Sonderfall ordinaler Fragebogendaten; SPSS Hilfe & Anleitung zeigt den vollständigen SPSS-Workflow; Bachelor Statistik auswerten erklärt die Grundlagen für Bachelorarbeiten.


Häufige Fragen

🔬 Teste dein Wissen zu diesem Thema

MC-Fragen nach IMPP-Katalog mit Erklärungen zu jeder Antwortoption. Von Fachärzten geprüft.

14 Tage kostenlos testen Keine Kreditkarte erforderlich