z-Transformation: Formel, Berechnung & Anwendung in der Statistik
z-Transformation einfach erklärt: Formel, Berechnung, z-Wert-Tabelle und Anwendung auf Likert-Skalen. Mit SPSS- & R-Anleitung für Doktorarbeiten und Abschlussarbeiten.
Die z-Transformation (auch z-Standardisierung oder Standardisierung) ist eines der fundamentalsten Verfahren der deskriptiven und inferentiellen Statistik — und zugleich eines der am häufigsten missverstandenen. Ob Gruppenvergleich über unterschiedliche Messinstrumente hinweg, Identifikation von Ausreißern, Voraussetzungsprüfung für multivariate Verfahren oder die Vergleichbarkeit von Likert-Skalen mit unterschiedlichen Skalierungen: Die z-Transformation macht Daten vergleichbar, die es in ihrer Rohform nicht wären.
Dieser Artikel erklärt die mathematische Grundlage, zeigt die korrekte Anwendung in medizinischen Doktorarbeiten und Abschlussarbeiten, und behandelt den methodisch sensiblen Sonderfall der z-Transformation von Likert-Daten — mit konkreten SPSS- und R-Anleitungen.
Was ist die z-Transformation?
Die z-Transformation überführt beliebig skalierte metrische Daten in eine einheitliche, dimensionslose Skala: die Standardnormalverteilung mit Mittelwert μ = 0 und Standardabweichung σ = 1. Der resultierende Wert — der z-Wert (auch z-Score) — gibt an, wie viele Standardabweichungen ein einzelner Messwert vom Mittelwert seiner Verteilung entfernt liegt.
Die Formel:
z = (x − x̄) / s
Dabei ist x der Rohwert, x̄ der arithmetische Mittelwert der Stichprobe und s die Standardabweichung der Stichprobe. Bei bekannten Populationsparametern (z.B. IQ-Normdaten) wird stattdessen mit μ und σ gerechnet:
z = (x − μ) / σ
Was der z-Wert bedeutet:
- z = 0 → Der Wert entspricht exakt dem Mittelwert
- z = +1,0 → Der Wert liegt eine Standardabweichung über dem Mittelwert
- z = −2,5 → Der Wert liegt 2,5 Standardabweichungen unter dem Mittelwert
- z = +1,96 → 97,5%-Perzentil (relevant für das 95%-Konfidenzintervall)
Merke: Die z-Transformation verändert weder die Form der Verteilung noch die Rangfolge der Werte. Sie verschiebt und skaliert lediglich die Achse. Eine schiefe Verteilung bleibt nach der z-Transformation schief — sie wird nicht „normalverteilt gemacht".
Warum z-Transformation? Drei zentrale Anwendungen
1. Vergleichbarkeit unterschiedlicher Messgrößen
Stellen Sie sich vor, eine Studie erhebt sowohl den systolischen Blutdruck (mmHg) als auch den BMI (kg/m²). Ein Patient hat einen Blutdruck von 155 mmHg und einen BMI von 32. Welcher Wert weicht stärker von der Norm ab? In Rohwerten ist diese Frage nicht beantwortbar — die Skalen sind inkommensurabel.
Nach der z-Transformation werden beide Werte auf dieselbe Skala gebracht: Wenn z(Blutdruck) = +1,8 und z(BMI) = +2,4, dann weicht der BMI relativ stärker von der Norm ab als der Blutdruck — obwohl 155 mmHg absolut „bedrohlicher" klingt als ein BMI von 32.
2. Identifikation von Ausreißern
In der Datenbereinigung vor der eigentlichen statistischen Auswertung werden z-Werte genutzt, um potenzielle Ausreißer systematisch zu identifizieren. Die gebräuchlichsten Schwellenwerte:
- |z| > 2,0 → Potenzieller Ausreißer (ca. 4,6% der Werte bei Normalverteilung)
- |z| > 2,5 → Wahrscheinlicher Ausreißer (ca. 1,2%)
- |z| > 3,0 → Extremwert (ca. 0,3%)
Wichtig: Ausreißer dürfen in einer Doktorarbeit nie kommentarlos entfernt werden. Die Entscheidung, ab welchem z-Wert ein Ausreißer ausgeschlossen wird, muss im Methodenteil vorab definiert und begründet werden.
3. Voraussetzung für multivariate Verfahren
Viele multivariate Methoden — insbesondere die Hauptkomponentenanalyse (PCA), Faktorenanalyse und bestimmte Machine-Learning-Algorithmen — setzen voraus, dass alle Variablen auf derselben Skala liegen. Ohne z-Standardisierung dominieren Variablen mit großer Varianz (z.B. Laborwerte in µg/l) die Analyse, während Variablen mit kleiner Varianz (z.B. Schmerzskalen 0–10) kaum Gewicht erhalten. Die z-Transformation löst dieses Problem, indem sie alle Variablen auf Einheitsvarianz bringt.
Rechenbeispiel: z-Transformation Schritt für Schritt
Klinisches Szenario: In einer Studie zur postoperativen Rehabilitation wird die Griffstärke (in kg) von 8 Patienten gemessen:
| Patient | Griffstärke (kg) |
|---|---|
| 1 | 28 |
| 2 | 35 |
| 3 | 22 |
| 4 | 40 |
| 5 | 31 |
| 6 | 25 |
| 7 | 38 |
| 8 | 33 |
Schritt 1 — Mittelwert berechnen: x̄ = (28 + 35 + 22 + 40 + 31 + 25 + 38 + 33) / 8 = 252 / 8 = 31,5 kg
Schritt 2 — Standardabweichung berechnen: s = √[Σ(xᵢ − x̄)² / (n−1)] = √[(12,25 + 12,25 + 90,25 + 72,25 + 0,25 + 42,25 + 42,25 + 2,25) / 7] = √[274 / 7] = √39,14 ≈ 6,26 kg
Schritt 3 — z-Werte berechnen:
| Patient | Griffstärke (kg) | z-Wert |
|---|---|---|
| 1 | 28 | (28 − 31,5) / 6,26 = −0,56 |
| 2 | 35 | (35 − 31,5) / 6,26 = +0,56 |
| 3 | 22 | (22 − 31,5) / 6,26 = −1,52 |
| 4 | 40 | (40 − 31,5) / 6,26 = +1,36 |
| 5 | 31 | (31 − 31,5) / 6,26 = −0,08 |
| 6 | 25 | (25 − 31,5) / 6,26 = −1,04 |
| 7 | 38 | (38 − 31,5) / 6,26 = +1,04 |
| 8 | 33 | (33 − 31,5) / 6,26 = +0,24 |
Interpretation: Patient 3 liegt 1,52 Standardabweichungen unter dem Mittelwert — seine Griffstärke ist also deutlich unterdurchschnittlich im Vergleich zur Stichprobe. Patient 4 liegt 1,36 Standardabweichungen darüber. Kein Patient überschreitet |z| > 2, es liegen also keine Ausreißer vor.
z-Wert-Tabelle: Wichtige Schwellenwerte
Die z-Wert-Tabelle (auch Standardnormalverteilungstabelle) gibt die kumulative Wahrscheinlichkeit P(Z ≤ z) an — also den Flächenanteil links des z-Werts unter der Standardnormalkurve. Für die häufigsten Anwendungen in der medizinischen Statistik sind folgende Werte besonders relevant:
| z-Wert | P(Z ≤ z) | Bedeutung |
|---|---|---|
| −2,576 | 0,005 | Untere Grenze 99%-KI |
| −1,960 | 0,025 | Untere Grenze 95%-KI |
| −1,645 | 0,050 | Einseitiger Test α = 0,05 |
| 0,000 | 0,500 | Median = Mittelwert |
| +1,645 | 0,950 | Einseitiger Test α = 0,05 |
| +1,960 | 0,975 | Obere Grenze 95%-KI |
| +2,576 | 0,995 | Obere Grenze 99%-KI |
Merke: Die z-Werte ±1,96 sind der Grund, warum das 95%-Konfidenzintervall als x̄ ± 1,96 × SE berechnet wird. Das ist kein Zufall, sondern folgt direkt aus der Standardnormalverteilung.
z-Transformation und Hypothesentests
Die z-Transformation bildet die mathematische Grundlage zahlreicher statistischer Tests. Der z-Test prüft, ob ein Stichprobenmittelwert signifikant von einem bekannten Populationsmittelwert abweicht — vorausgesetzt, die Populationsstandardabweichung σ ist bekannt und die Stichprobe ist ausreichend groß (n ≥ 30).
Teststatistik des z-Tests:
z = (x̄ − μ₀) / (σ / √n)
Dabei ist x̄ der Stichprobenmittelwert, μ₀ der hypothetische Populationsmittelwert, σ die bekannte Populationsstandardabweichung und n die Stichprobengröße.
Medizinisches Beispiel: Eine Klinik behauptet, dass ihre Patienten nach Hüft-TEP im Mittel 4,2 Tage stationär bleiben. Die historischen Daten (σ = 1,1 Tage) sind bekannt. Eine Stichprobe von n = 50 Patienten ergibt x̄ = 4,6 Tage. Ist der Unterschied signifikant?
z = (4,6 − 4,2) / (1,1 / √50) = 0,4 / 0,156 = 2,57
Da z = 2,57 > 1,96 (kritischer Wert für α = 0,05, zweiseitig), ist der Unterschied statistisch signifikant (p = 0,010). Die mittlere Verweildauer der Stichprobe weicht signifikant vom Referenzwert ab.
In der Praxis ist σ allerdings selten bekannt. Deshalb wird bei unbekannter Populationsstandardabweichung und kleineren Stichproben stattdessen der t-Test verwendet, der die gleiche Grundlogik verfolgt, aber eine breitere Verteilung (t-Verteilung) zugrunde legt. Einen Überblick über die Testauswahl finden Sie im Artikel Statistik für die Doktorarbeit: Welcher Test wann?.
z-Werte beim Mann-Whitney-U-Test und Wilcoxon-Test
Auch bei nicht-parametrischen Tests spielen z-Werte eine zentrale Rolle — allerdings in einer anderen Funktion als bei der z-Standardisierung von Rohdaten.
Beim Mann-Whitney-U-Test und beim Wilcoxon-Vorzeichen-Rang-Test gibt SPSS im Output einen z-Wert aus. Dieser z-Wert ist die standardisierte Teststatistik, die aus der U- bzw. W-Statistik unter Berücksichtigung einer Normalapproximation berechnet wird. Er dient zwei Zwecken: der Signifikanzprüfung (über den zugehörigen p-Wert) und der Berechnung der Effektgröße r:
r = |Z| / √N
Diese Formel ist der Standard für die Effektgrößenberechnung bei nicht-parametrischen Tests — und sie wird von SPSS nicht automatisch ausgegeben. Die manuelle Berechnung und Interpretation ist in jeder Promotion und Masterarbeit obligatorisch.
z-Transformation bei Likert-Skalen: Möglichkeiten und Grenzen
Die Anwendung der z-Transformation auf Likert-Daten ist einer der methodisch sensibelsten Bereiche — und gleichzeitig einer der häufigsten Fehler in medizinischen Abschlussarbeiten. Die Kernfrage lautet: Dürfen ordinale Daten z-standardisiert werden?
Wann die z-Transformation bei Likert-Daten zulässig ist
Summenscores aus mehreren Items: Wenn Sie einen Summenscore aus mindestens 5 Likert-Items gebildet haben (z.B. einen Gesamtscore für „Therapiezufriedenheit" aus 8 Items), wird dieser Score in der medizinischen Forschungspraxis als quasi-metrisch behandelt. In diesem Fall ist die z-Transformation methodisch vertretbar — insbesondere wenn:
- Die Verteilung des Summenscores annähernd symmetrisch ist
- Die Stichprobe ausreichend groß ist (n > 30)
- Die z-Transformation den Zweck hat, Scores aus unterschiedlichen Instrumenten vergleichbar zu machen
Typisches Anwendungsbeispiel: Eine Studie erhebt Lebensqualität mit dem SF-36 (Scores 0–100) und Angst mit dem GAD-7 (Scores 0–21). Um beide Konstrukte im gleichen Diagramm darzustellen oder als Prädiktoren in einer Regressionsanalyse gleichwertig einzubeziehen, werden beide Scores z-standardisiert.
Wann die z-Transformation bei Likert-Daten nicht zulässig ist
Einzelne Likert-Items: Ein einzelnes Item mit 5 Ausprägungen (1–5) ist ordinal. Die z-Transformation setzt implizit voraus, dass die Abstände zwischen den Skalenpunkten gleich groß sind — eine Annahme, die bei einzelnen Likert-Items nicht begründbar ist. Wer ein einzelnes Likert-Item z-transformiert und dann parametrische Tests anwendet, begeht einen methodischen Fehler, den Gutachter sofort erkennen.
Bei stark schiefen Verteilungen: Wenn der Summenscore stark links- oder rechtsschief verteilt ist (z.B. Decken- oder Bodeneffekte bei der Zufriedenheitsmessung), verzerrt die z-Transformation die Interpretation. Ein z-Wert von +1,5 hat bei einer symmetrischen Verteilung eine andere Bedeutung als bei einer stark linksschiefen Verteilung.
Empfehlung für den Methodenteil
Wenn Sie Likert-basierte Summenscores z-transformieren, formulieren Sie im Methodenteil Ihrer Arbeit explizit:
„Die Summenscores der Subskalen wurden z-standardisiert (M = 0, SD = 1), um die Vergleichbarkeit der unterschiedlich skalierten Instrumente zu gewährleisten. Die Behandlung der Summenscores als quasi-metrische Daten folgt der in der klinischen Forschung etablierten Konvention bei Skalen mit ≥ 5 Items und annähernder Normalverteilung (Shapiro-Wilk p > 0,05)."
z-Transformation in SPSS: Schritt-für-Schritt-Anleitung
SPSS bietet zwei Wege zur z-Transformation:
Methode 1: Über die deskriptive Statistik (empfohlen)
1. Analysieren → Deskriptive Statistiken → Deskriptive Statistik
2. Variable(n) in das Feld „Variablen" ziehen
3. Haken setzen bei „Standardisierte Werte als Variablen speichern"
4. OK klicken
SPSS erstellt automatisch eine neue Variable mit dem Präfix Z (z.B. Zblutdruck) in Ihrem Datensatz. Diese enthält die z-Werte.
Methode 2: Manuelle Berechnung über Compute Variable
1. Transformieren → Variable berechnen
2. Zielvariable: z_blutdruck
3. Numerischer Ausdruck: (blutdruck - MEAN(blutdruck)) / SD(blutdruck)
4. Falls MEAN/SD nicht aggregiert funktioniert:
Vorab Mittelwert und SD in der deskriptiven Statistik ablesen,
dann direkt einsetzen: (blutdruck - 135.2) / 18.7
Methode 1 ist schneller und weniger fehleranfällig. Methode 2 ist dann nützlich, wenn Sie gegen einen externen Referenzwert (z.B. Populationsnorm) standardisieren möchten.
SPSS-Output prüfen
Nach der z-Transformation sollten Sie kontrollieren:
- Mittelwert der z-Variable = 0,000 (bis auf Rundungsfehler)
- Standardabweichung der z-Variable = 1,000
- Minimum und Maximum → hier erkennen Sie potenzielle Ausreißer (|z| > 3)
z-Transformation in R: Kompakte Umsetzung
In R ist die z-Transformation mit der Funktion scale() in einer Zeile erledigt:
# z-Transformation einer einzelnen Variable
df$z_blutdruck <- scale(df$blutdruck)
# z-Transformation mehrerer Variablen gleichzeitig
df[, c("z_bmi", "z_bp", "z_hba1c")] <- scale(df[, c("bmi", "bp", "hba1c")])
# Gegen eine externe Norm standardisieren (z.B. Bevölkerungsnorm)
df$z_iq <- (df$iq - 100) / 15 # IQ: μ = 100, σ = 15
# Kontrolle
mean(df$z_blutdruck) # sollte ≈ 0 sein
sd(df$z_blutdruck) # sollte ≈ 1 sein
Für die Visualisierung z-transformierter Daten eignet sich ggplot2:
library(ggplot2)
ggplot(df, aes(x = z_blutdruck)) +
geom_histogram(aes(y = after_stat(density)), bins = 20, fill = "#2E86C1", alpha = 0.7) +
stat_function(fun = dnorm, color = "#C0392B", linewidth = 1) +
labs(x = "z-Wert (Blutdruck)", y = "Dichte",
title = "z-transformierte Blutdruckwerte mit Normalverteilungskurve") +
theme_minimal()
Häufige Fehler bei der z-Transformation
Fehler 1: z-Transformation zur „Normalisierung" verwenden. Die z-Transformation macht Daten nicht normalverteilt. Sie verschiebt den Mittelwert auf 0 und skaliert die Streuung auf 1 — die Form der Verteilung bleibt unverändert. Wer nicht-normalverteilte Daten z-transformiert und dann einen parametrischen Test anwendet, hat die Voraussetzung nicht erfüllt. Für tatsächliche Normalisierung brauchen Sie transformierende Verfahren wie Log-Transformation, Box-Cox-Transformation oder den Übergang zu nicht-parametrischen Tests.
Fehler 2: z-Werte zwischen Stichproben vergleichen, ohne gemeinsame Referenz. Wenn Studie A den Blutdruck z-transformiert (x̄ = 130, s = 15) und Studie B ebenfalls (x̄ = 145, s = 20), dann bedeutet z = +1,0 in beiden Studien etwas völlig anderes in absoluten Werten. z-Werte sind nur innerhalb derselben Referenzgruppe vergleichbar — oder wenn gegen eine gemeinsame Populationsnorm standardisiert wird.
Fehler 3: z-Transformation bei nominalen oder einzelnen ordinalen Variablen. Geschlecht (1/2), Blutgruppe (A/B/AB/0) oder ein einzelnes Likert-Item (1–5) sind für die z-Transformation nicht geeignet. Die Formel setzt voraus, dass Mittelwert und Standardabweichung sinnvolle Kennzahlen sind — das ist bei nominalskalierten Daten nicht der Fall. Auch bei ordinalen Einzelitems fehlt die Intervallskalierung, die für eine aussagekräftige Standardisierung nötig wäre.
Fehler 4: Ausreißer vor der z-Transformation nicht prüfen. Extreme Ausreißer verzerren Mittelwert und Standardabweichung — und damit alle z-Werte der gesamten Stichprobe. Es empfiehlt sich, Ausreißer vor der z-Transformation per Boxplot oder IQR-Methode zu identifizieren und die Strategie (Einschluss, Winsorisierung, Ausschluss) im Methodenteil festzulegen.
Fehler 5: z-Transformation bei kleinen Stichproben überinterpretieren. Bei n < 30 sind Mittelwert und Standardabweichung instabile Schätzer — und damit auch die darauf basierenden z-Werte. Interpretieren Sie z-Werte bei kleinen Stichproben zurückhaltend und berichten Sie die Stichprobengröße transparent.
z-Transformation vs. andere Standardisierungsverfahren
Neben der z-Transformation existieren weitere Standardisierungsverfahren, die je nach Anwendungskontext vorzuziehen sind:
| Verfahren | Formel | Ergebnisbereich | Anwendung |
|---|---|---|---|
| z-Transformation | (x − x̄) / s | unbegrenzt (typisch −3 bis +3) | Vergleichbarkeit, Ausreißererkennung, multivariate Analysen |
| Min-Max-Normalisierung | (x − min) / (max − min) | 0 bis 1 | Machine Learning, neuronale Netze |
| Prozentränge | Rang(x) / N × 100 | 0 bis 100 | Nicht-parametrische Normierung, Testdiagnostik |
| T-Wert-Transformation | 50 + 10 × z | typisch 20 bis 80 | Psychometrie (z.B. MMPI, NEO-FFI) |
| IQ-Skala | 100 + 15 × z | typisch 55 bis 145 | Intelligenztests |
| Stanine | 5 + 2 × z (gerundet, 1–9) | 1 bis 9 | Bildungsforschung |
Die T-Wert-Transformation (nicht zu verwechseln mit dem t-Test!) und die IQ-Skalierung sind im Grunde lineare Transformationen des z-Werts. Sie vermeiden negative Werte und Dezimalstellen, was in der klinischen Kommunikation praktisch ist.
Anwendungsfall: z-Transformation für Fragebogenvergleiche in der Doktorarbeit
Ein typisches Szenario in einer medizinischen Doktorarbeit oder bei der Fragebogenauswertung: Sie haben verschiedene Messinstrumente verwendet und möchten die Ergebnisse vergleichbar machen.
Beispiel: Eine Studie zur postoperativen Patientenzufriedenheit erhebt drei Konstrukte mit unterschiedlichen Instrumenten:
- Zufriedenheit (selbst entwickelter Fragebogen, 10 Items, Summenscore 10–50)
- Angst (GAD-7, Summenscore 0–21)
- Lebensqualität (EQ-5D VAS, 0–100)
Ohne z-Transformation sind diese Scores nicht direkt vergleichbar. Nach der Standardisierung können Sie in einem gemeinsamen Profil darstellen, welches Konstrukt bei welchem Patienten am stärksten von der Stichprobennorm abweicht — eine Information, die in Rohwerten nicht ablesbar wäre.
SPSS-Workflow für diesen Anwendungsfall:
1. Summenscores bilden: Transform → Compute Variable
(z.B. zufriedenheit_sum = SUM(item_1 to item_10))
2. Reliabilität prüfen: Analyze → Scale → Reliability Analysis → Cronbachs Alpha ≥ 0,70
3. Normalverteilung prüfen: Analyze → Descriptive Statistics → Explore → Shapiro-Wilk
4. z-Standardisieren: Analyze → Descriptive Statistics → Descriptives
→ Haken bei „Standardisierte Werte als Variablen speichern"
5. Ergebnis: Neue Variablen Zzufriedenheit_sum, Zgad7_sum, Zeq5d_vas
Für die statistische Auswertung dieser standardisierten Scores gelten die gleichen Testwahlregeln wie für die Rohwerte — die z-Transformation ändert nichts an der Frage, ob parametrisch oder nicht-parametrisch getestet wird. Sie erleichtert aber die Interpretation und die grafische Darstellung erheblich.
Wenn die z-Transformation und ihre korrekte Anwendung im Rahmen Ihrer Doktorarbeit oder Masterarbeit noch Fragen aufwirft, unterstützt das SCIORA Biostatistik-Team Sie bei der Methodenwahl, Datenaufbereitung und publikationsreifen Ergebnisdarstellung.
Weiterführende Artikel im Statistik-Cluster: Statistik für die Doktorarbeit: Welcher Test wann? gibt einen Überblick über die gängigsten Tests; Likert-Skala auswerten behandelt den Sonderfall ordinaler Fragebogendaten; SPSS Hilfe & Anleitung zeigt den vollständigen SPSS-Workflow; Bachelor Statistik auswerten erklärt die Grundlagen für Bachelorarbeiten.
Häufige Fragen
- „Was ist der Unterschied zwischen z-Transformation und Normalisierung?" → Die z-Transformation standardisiert Daten auf Mittelwert 0 und Standardabweichung 1, verändert aber nicht die Form der Verteilung. Normalisierung kann verschiedene Verfahren meinen — von Min-Max-Skalierung bis zur Log-Transformation, die die Verteilungsform tatsächlich verändert.
- „Kann ich Likert-Skalen z-transformieren?" → Summenscores aus ≥ 5 Items ja, wenn die Verteilung annähernd symmetrisch ist. Einzelne Likert-Items nein — sie sind ordinal, und die z-Transformation setzt Intervallskalierung voraus.
- „Welchen z-Wert benutze ich als Ausreißer-Grenze?" → Am häufigsten |z| > 3 (streng) oder |z| > 2,5 (moderat). Die Wahl muss im Methodenteil vorab festgelegt werden — nicht nachträglich angepasst.
- „Wie berechne ich z-Werte in Excel?" → Die Formel lautet: =(Zelle-MITTELWERT(Bereich))/STABW.S(Bereich). STABW.S verwendet n−1 im Nenner (Stichproben-SD), was für die meisten Anwendungen korrekt ist.
- „Muss ich meine Daten z-transformieren, bevor ich einen t-Test durchführe?" → Nein. Der t-Test standardisiert intern bereits. Die z-Transformation ist für den t-Test weder nötig noch schädlich — sie verändert die Teststatistik und den p-Wert nicht.
- „Verändert die z-Transformation meine Korrelationsergebnisse?" → Nein. Die Pearson-Korrelation ist invariant gegenüber linearen Transformationen. r bleibt identisch, egal ob Sie Rohwerte oder z-Werte korrelieren.
🔬 Teste dein Wissen zu diesem Thema
MC-Fragen nach IMPP-Katalog mit Erklärungen zu jeder Antwortoption. Von Fachärzten geprüft.
14 Tage kostenlos testen Keine Kreditkarte erforderlich