Satz von Bayes verstehen: Formel, Beispiele & Anwendung in der Medizin
Satz von Bayes einfach erklärt: Formel, klinische Beispiele (Sensitivität, Spezifität, prädiktive Werte), Bayes-Theorem in R und SPSS. Mit Übungsaufgaben.
Der Satz von Bayes (auch: Bayes-Theorem, Regel von Bayes) ist eines der wichtigsten Werkzeuge der Wahrscheinlichkeitsrechnung — und gleichzeitig eine der häufigsten Quellen für diagnostische Trugschlüsse in der Medizin. Wer ein positives Mammographie-Ergebnis korrekt interpretieren will, wer Likelihood Ratios in der klinischen Diagnostik nutzt oder wer eine Bayessche Statistik in seiner Doktorarbeit anwenden möchte, kommt an dieser Formel nicht vorbei. Dieser Leitfaden erklärt die Bayes-Regel mit klinischen Beispielen, zeigt die häufigsten Fallstricke und liefert Code-Beispiele für R und SPSS — als Bestandteil unseres umfassenden Statistik-Wissens für Doktorarbeiten.
Die Formel auf einen Blick
Der Satz von Bayes verbindet zwei bedingte Wahrscheinlichkeiten miteinander:
$$P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}$$
In klinischer Notation:
$$P(\text{Krankheit}|\text{Test}^+) = \frac{P(\text{Test}^+|\text{Krankheit}) \cdot P(\text{Krankheit})}{P(\text{Test}^+)}$$
Was bedeutet das?
- $P(A|B)$ — Posterior: Wahrscheinlichkeit von A, gegeben B ist eingetreten
- $P(B|A)$ — Likelihood: Wahrscheinlichkeit von B, gegeben A
- $P(A)$ — Prior: Vorab-Wahrscheinlichkeit von A (z. B. Prävalenz)
- $P(B)$ — Evidenz: Gesamt-Wahrscheinlichkeit von B
Merke: Der Satz von Bayes erlaubt dir, von einer bekannten Richtung der bedingten Wahrscheinlichkeit ($P(B|A)$) auf die andere Richtung ($P(A|B)$) zu schließen. Genau das brauchst du in der Diagnostik: Du kennst die Sensitivität ($P(\text{Test}^+|\text{Krank})$), willst aber den prädiktiven Wert ($P(\text{Krank}|\text{Test}^+)$).
Klinisches Beispiel: Mammographie-Screening
Ein häufig zitiertes Beispiel zur Verdeutlichung:
- Prävalenz Brustkrebs bei 40-jährigen Frauen: 1 % ($P(K) = 0{,}01$)
- Sensitivität der Mammographie: 90 % ($P(T^+|K) = 0{,}90$)
- Spezifität: 91 % → Falsch-Positiv-Rate $P(T^+|\bar{K}) = 0{,}09$
Frage: Eine Patientin hat ein positives Screening-Ergebnis. Wie hoch ist die Wahrscheinlichkeit, dass sie tatsächlich Brustkrebs hat?
Anwendung des Satzes von Bayes:
$$P(K|T^+) = \frac{0{,}90 \cdot 0{,}01}{0{,}90 \cdot 0{,}01 + 0{,}09 \cdot 0{,}99} = \frac{0{,}009}{0{,}0981} \approx 9{,}2,%$$
Das überraschende Ergebnis: Trotz hoher Sensitivität und Spezifität liegt die Wahrscheinlichkeit, tatsächlich erkrankt zu sein, bei nur 9,2 %. Über 90 % der positiven Mammographien bei 40-Jährigen sind falsch-positiv. Der Grund: niedrige Prävalenz.
Warum das wichtig ist: Diese Diskrepanz zwischen Sensitivität (90 %) und positivem prädiktivem Wert (9 %) ist der Hauptgrund, warum Screening-Empfehlungen so kontrovers diskutiert werden. Wer die Bayes-Regel nicht beherrscht, kommunizert Risiken systematisch falsch.
Die häufigste Verwechslung: $P(A|B) \neq P(B|A)$
In der medizinischen Praxis und auch in Doktorarbeiten wird häufig die Richtung der bedingten Wahrscheinlichkeit verdreht. Beispiele für falsche Aussagen:
- "Die Sensitivität von 90 % bedeutet, dass 90 % der positiv getesteten Patienten tatsächlich krank sind." → Falsch! Das wäre der positive prädiktive Wert (PPV).
- "Eine Spezifität von 95 % bedeutet, dass 95 % der negativ getesteten Patienten gesund sind." → Falsch! Das wäre der negative prädiktive Wert (NPV).
| Begriff | Definition | Formel |
|---|---|---|
| Sensitivität | $P(T^+|K)$ | Richtig-Positive / alle Erkrankten |
| Spezifität | $P(T^-|\bar{K})$ | Richtig-Negative / alle Gesunden |
| PPV (Pos. präd. Wert) | $P(K|T^+)$ | Richtig-Positive / alle Test-Positiven |
| NPV (Neg. präd. Wert) | $P(\bar{K}|T^-)$ | Richtig-Negative / alle Test-Negativen |
PPV und NPV sind prävalenzabhängig, Sensitivität und Spezifität sind es nicht. Genau aus diesem Grund brauchen wir den Satz von Bayes — er übersetzt die Test-Eigenschaften (prävalenz-unabhängig) in das, was klinisch relevant ist (prävalenzabhängig).
Anwendung 2: PCR-Tests in einer Pandemie
Ein realer COVID-19-Anwendungsfall:
- Prävalenz in der Allgemeinbevölkerung: 0,1 % ($P(K) = 0{,}001$)
- PCR-Sensitivität: 95 %
- PCR-Spezifität: 99 % (1 % falsch-positiv)
$$P(K|T^+) = \frac{0{,}95 \cdot 0{,}001}{0{,}95 \cdot 0{,}001 + 0{,}01 \cdot 0{,}999} \approx 8{,}7,%$$
Bei niedrigen Prävalenzen produzieren selbst hochpräzise Tests viele falsch-positive Ergebnisse. Bei einer Prävalenz von 5 % (Hochrisiko-Setting) verändert sich das Bild dramatisch:
$$P(K|T^+) = \frac{0{,}95 \cdot 0{,}05}{0{,}95 \cdot 0{,}05 + 0{,}01 \cdot 0{,}95} \approx 83,%$$
Praxis-Konsequenz: Bei breitem Bevölkerungs-Screening sollte ein PCR-Positivergebnis immer durch einen Zweittest bestätigt werden. Bei symptomatischen Patienten ist der prädiktive Wert dagegen hoch genug für klinische Entscheidungen.
Likelihood Ratios als Bayes-Anwendung
In der evidenzbasierten Medizin nutzt man häufig Likelihood Ratios (LR) statt direkter Bayes-Berechnung. Sie sind kompakter und prävalenz-unabhängig:
$$LR^+ = \frac{\text{Sensitivität}}{1 - \text{Spezifität}}, \quad LR^- = \frac{1 - \text{Sensitivität}}{\text{Spezifität}}$$
Mit der Pre-Test-Odds und der Post-Test-Odds gilt:
$$\text{Post-Test-Odds} = \text{Pre-Test-Odds} \cdot LR$$
Faustregeln zur Interpretation:
- LR⁺ > 10 oder LR⁻ < 0,1 → diagnostisch sehr informativ
- LR⁺ 5-10 oder LR⁻ 0,1-0,2 → moderat informativ
- LR⁺ < 2 oder LR⁻ > 0,5 → klinisch wenig nützlich
Bayes-Theorem in R berechnen
# Funktion für Bayes mit Sens/Spez/Prävalenz
bayes_ppv <- function(sens, spec, prevalence) {
numerator <- sens * prevalence
denominator <- sens * prevalence + (1 - spec) * (1 - prevalence)
numerator / denominator
}
# Mammographie-Beispiel
bayes_ppv(sens = 0.90, spec = 0.91, prevalence = 0.01)
# [1] 0.0917
# Sensitivitätsanalyse: PPV vs. Prävalenz
prevalences <- seq(0.001, 0.20, by = 0.001)
ppvs <- sapply(prevalences, function(p) bayes_ppv(0.90, 0.91, p))
plot(prevalences, ppvs, type = "l",
xlab = "Prävalenz", ylab = "Positiver präd. Wert (PPV)",
main = "Bayes: PPV in Abhängigkeit der Prävalenz")
Für komplexere Bayessche Statistik (Hierarchische Modelle, MCMC) bietet R die Pakete rstan, brms und rstanarm. Mehr Details in unserem Leitfaden zur statistischen Auswertung.
Bayes-Theorem in SPSS
SPSS hat keinen dedizierten Bayes-Knopf für PPV/NPV. Du kannst aber:
- Crosstabs rechnen (Analysieren → Deskriptive Statistiken → Kreuztabellen)
- Test-Ergebnis × Goldstandard
- PPV = Zeile Test-Positiv → Spalte Krank / Zeilen-Gesamt
Seit SPSS Statistics 25 gibt es zudem ein dediziertes Menü Analysieren → Bayes-Statistik für komplexere Bayessche Modelle (T-Tests, ANOVA, Lineare Regression in Bayes-Variante). Eine ausführliche Anleitung findest du in unserem SPSS-Hilfe-Leitfaden.
Bayes vs. Frequentist: Der Streit der Schulen
In der wissenschaftlichen Praxis konkurrieren zwei Statistik-Schulen:
| Frequentist | Bayes | |
|---|---|---|
| Zentrale Frage | "Wie wahrscheinlich sind diese Daten unter $H_0$?" | "Wie wahrscheinlich ist die Hypothese gegeben die Daten?" |
| Output | p-Werte, Konfidenzintervalle | Posterior-Verteilung, Credible Intervals |
| Prior-Wissen | wird ignoriert | wird formal eingebaut |
| Computational | analytisch lösbar | meist MCMC nötig |
| Klinische Anwendung | Standard in RCTs | wachsend, besonders bei adaptiven Studiendesigns |
In der Medizin dominieren noch klassische frequentistische Methoden. Bayessche Verfahren werden aber zunehmend für adaptive Studien, Personalised Medicine und Meta-Analysen mit wenigen Studien eingesetzt. Mehr zu beiden Welten in unserem Leitfaden zur Statistik in der Doktorarbeit.
Häufige Fehler beim Umgang mit Bayes
Fehler 1: Prior-Probability vergessen
"Mein PCR-Test ist positiv — also habe ich definitiv Corona." Falsch — ohne Berücksichtigung der Prävalenz ist die Aussage unsinnig.
Fehler 2: Base-Rate-Fallacy
Bei Diagnosen mit hoher Sensitivität wird die niedrige Prävalenz oft "vergessen". Selbst bei 99-%-igen Tests bleiben falsch-positive bei seltenen Krankheiten dominant.
Fehler 3: Verwechslung von $P(A|B)$ und $P(B|A)$
Klassisches Beispiel: "Die Wahrscheinlichkeit, dass jemand der Mörder ist, gegeben sein DNA-Match, ist 99 %." → Verwechslung mit P(DNA-Match | Mörder).
Fehler 4: Multiple Testung ohne Bayes-Update
Wenn mehrere Tests durchgeführt werden, müssen die Resultate sequenziell bayesianisch aktualisiert werden — der Posterior eines Tests wird zum Prior des nächsten.
Übungsaufgabe (mit Lösung)
Aufgabe: In einer Studie zu Brustkrebs-Screening hat ein Test eine Sensitivität von 92 % und eine Spezifität von 88 %. Die Prävalenz in der untersuchten Population liegt bei 2,5 %. Wie hoch ist der positive prädiktive Wert?
Lösung:
$$P(K|T^+) = \frac{0{,}92 \cdot 0{,}025}{0{,}92 \cdot 0{,}025 + 0{,}12 \cdot 0{,}975} = \frac{0{,}023}{0{,}1400} \approx 16{,}4,%$$
Trotz beeindruckender Sensitivität und Spezifität wären 83,6 % aller positiven Tests in dieser Population falsch-positiv. Das ist die typische Bayes-Ernüchterung.
Zusammenfassung: 7 Kern-Regeln
- Bedingte Wahrscheinlichkeiten haben eine Richtung — $P(A|B)$ und $P(B|A)$ sind nicht dasselbe.
- Sensitivität ≠ PPV — beides verwechseln ist der häufigste Fehler.
- Prävalenz dominiert — bei seltenen Krankheiten ist der PPV trotz guter Tests niedrig.
- Likelihood Ratios sind elegant — sie kombinieren Sensitivität und Spezifität in einem Wert.
- Pre-Test-Wahrscheinlichkeit ist klinisch entscheidend — das ist der Prior.
- Bayes ist kein Frequentist-Konkurrent — beide Schulen liefern unterschiedliche Antworten auf unterschiedliche Fragen.
- In R einfach implementierbar — keine Spezialsoftware nötig.
Häufige Fragen
- „Was ist der Unterschied zwischen Sensitivität und positivem prädiktivem Wert?" → Sensitivität ist die Wahrscheinlichkeit, dass ein Erkrankter positiv getestet wird ($P(T^+|K)$). Der positive prädiktive Wert ist die Wahrscheinlichkeit, dass ein positiv Getesteter tatsächlich krank ist ($P(K|T^+)$). Beide sind unterschiedliche Konzepte — und der PPV ist prävalenzabhängig, die Sensitivität nicht.
- „Wann brauche ich den Satz von Bayes konkret in meiner Doktorarbeit?" → Immer, wenn du mit diagnostischen Tests, Risiko-Kommunikation oder bedingten Wahrscheinlichkeiten arbeitest. Konkret: bei der Berechnung prädiktiver Werte, bei Likelihood-Ratio-Analysen und in Bayesschen Statistik-Modellen. Eine individuelle Beratung hilft, wenn du unsicher bist, welche Methode in deinem Studiendesign passt.
- „Was ist der Unterschied zwischen Bayes-Theorem, Bayes-Regel und Bayes-Formel?" → Drei Begriffe für dasselbe mathematische Resultat. International setzt sich „Bayes' theorem" durch, im Deutschen sind alle drei Bezeichnungen austauschbar. Inhaltlich identisch.
- „Was ist eine Posterior-Verteilung?" → In der Bayesschen Statistik die Wahrscheinlichkeitsverteilung des Parameters nach Berücksichtigung der Daten. Sie kombiniert Prior-Verteilung (Vorwissen) mit der Likelihood (Daten-Information). Der Posterior ist das Hauptergebnis einer Bayesschen Analyse.
- „Brauche ich Bayes für klassische t-Tests oder ANOVAs?" → Nein, dafür reichen frequentistische Verfahren. Bayes wird interessant bei adaptiven Studiendesigns, kleinen Stichproben mit starkem Vorwissen, hierarchischen Modellen oder wenn p-Werte methodisch ungeeignet sind.
- „Welche Software eignet sich für Bayessche Statistik?" → R mit den Paketen
rstan,brmsoderrstanarmist Industrie-Standard. SPSS bietet seit Version 25 ein begrenztes Bayes-Menü. Spezialisten nutzen Stan oder PyMC. Für eine reine PPV-Berechnung reicht jeder Taschenrechner. - „Was kostet die professionelle Bayes-Auswertung einer Doktorarbeit?" → Eine einfache PPV/NPV-Auswertung mit Konfidenzintervallen liegt bei 300–500 €. Vollständige Bayessche Modelle (hierarchisch, mit MCMC-Diagnostik und publikationsreifer Visualisierung) kosten 1.500–3.500 €. Details und individuelle Angebote auf unserer Biostatistik-Seite.
🔬 Teste dein Wissen zu diesem Thema
MC-Fragen nach IMPP-Katalog mit Erklärungen zu jeder Antwortoption. Von Fachärzten geprüft.
14 Tage kostenlos testen Keine Kreditkarte erforderlich