Zum Inhalt springen
EN DE

Bias & Fairness

2018 scrappte Amazon ein AI-Recruiting-Tool, das Bias gegen Frauen zeigte. Das Modell war auf historischen Bewerbungen trainiert, die ueberwiegend von Maennern kamen. Es lernte, Lebenslaeufe abzuwerten, die das Wort “women’s” enthielten — wie in “women’s chess club.” Die Daten waren technisch korrekt. Das gelernte Muster war es nicht.

2019 wurde Goldman Sachs’ Kreditalgorithmus für die Apple Card untersucht, weil er Frauen signifikant niedrigere Kreditlimits als Maennern mit vergleichbarem Finanzprofil anbot. Obwohl Geschlecht kein expliziter Input war, erzeugten Proxy-Features unterschiedliche Ergebnisse.

Bias in AI ist kein Einzelproblem — es ist eine Familie verwandter Probleme, die in jeder Phase des Produkt-Lebenszyklus auftreten können. Und die Wahl, welche Definition von “Fairness” Du anwendest, ist eine Produkt- und Werteentscheidung — keine technische.

Training Data Bias:

  • Representation Bias: Trainingsdaten spiegeln nicht die echte Population wider. Buolamwini & Gebru (“Gender Shades”, 2018): Gesichtserkennung trainiert auf ueberwiegend hellen Hauttoenen performt schlechter auf dunkleren.
  • Historical Bias: Trainingsdaten bilden historische Ungleichheiten ab. Ein Hiring-Modell lernt Diskriminierung, weil historische Einstellungen diskriminierend waren.
  • Labeling Bias: Menschliche Annotatoren bringen eigene Verzerrungen ein.

Measurement Bias: Features oder Proxies benachteiligen systematisch bestimmte Gruppen. Postleitzahl als Feature ist in vielen Kontexten ein Proxy für Ethnie. “Jahre Berufserfahrung” als Qualitaetssignal benachteiligt Karrierewechsler und Menschen mit Care-Pausen.

Selection Bias: Der Datenerhebungsprozess schliesst bestimmte Populationen systematisch aus. AI trainiert auf App-Nutzungsdaten verpasst User ohne Smartphone. Feedback Loops: Das Modell sieht nur Ergebnisse für Menschen, die es zuvor genehmigt hat.

Evaluation Bias: Aggregierte Metriken verstecken Disparitaeten. Ein Modell mit hoher Gesamt-Accuracy kann bei einer spezifischen Minderheit schlecht performen. Disaggregierte Evaluation ist unverzichtbar.

Fairness-Metriken — und warum sie inkompatibel sind

Abschnitt betitelt „Fairness-Metriken — und warum sie inkompatibel sind“

Demographic Parity: Die positive Vorhersagerate soll über alle demografischen Gruppen gleich sein. Limitation: Beruecksichtigt keine legitimen Unterschiede in Basisraten.

Equalized Odds: True Positive Rate und False Positive Rate sollen über Gruppen gleich sein. Strenger als Demographic Parity — beruecksichtigt tatsaechliche Qualifikation.

Equal Opportunity: Nur die True Positive Rate muss gruppenuebergreifend gleich sein. Stellt sicher, dass qualifizierte Mitglieder aller Gruppen gleiche Chancen haben.

Predictive Parity: Precision soll über Gruppen gleich sein. Stellt sicher, dass positive Vorhersagen gruppenunabhaengig gleichermassen vertrauenswuerdig sind.

Das Impossibility Theorem: Mehrere Fairness-Definitionen sind mathematisch inkompatibel, wenn Basisraten zwischen Gruppen unterschiedlich sind (Chouldechova 2017, Kleinberg et al. 2016). Eine zu erfuellen kann bedeuten, eine andere zu verletzen. Der PM muss waehlen und die Wahl begruenden.

  1. Geschuetzte Attribute identifizieren — relevant für Produkt und Jurisdiktion
  2. Metriken disaggregieren — Eval Suite aufgeschluesselt nach Gruppen laufen lassen
  3. Proxy-Diskriminierung testen — Korrelieren nicht-geschuetzte Features (Postleitzahl, Name) mit geschuetzten Attributen?
  4. Fairness-Metriken berechnen — Demographic Parity, Equalized Odds oder die gewaehlte Definition
  5. Red Team für Bias — Inputs testen, die biased Outputs ausloesen (stereotypische Prompts, unterrepraesentierte Gruppen)
  6. Findings und Entscheidungen dokumentieren — Welche Disparitaeten gefunden, welche akzeptiert (mit Begruendung), welche mitigiert

Bias & Fairness Audit:

SchrittAktionVerantwortlich
1Geschuetzte Attribute für Produkt und Jurisdiktion identifizierenPM + Legal
2Fairness-Metriken waehlen mit expliziter BegruendungPM + Ethics/Legal
3Eval-Metriken nach geschuetzten Gruppen disaggregierenEngineering
4Proxy-Diskriminierung testen (Feature-Korrelationsanalyse)Data Science
5Red Teaming spezifisch für biased OutputsPM + Diverse Tester
6Akzeptable Disparitaets-Schwellenwerte definierenPM + Leadership
7Mitigationen implementieren (Daten-, Modell-, Produkt-Ebene)Engineering
8Entscheidungen, Findings und Rationale dokumentierenPM
9Regelmaessige Re-Audits planen (mindestens vierteljaehrlich)PM
10Einspruchsmechanismen für betroffene User bauenPM + Design

Mitigations-Strategien:

  • Pre-processing: Daten reparieren — Re-sampling, Re-weighting, Augmentierung unterrepraesentierter Gruppen
  • In-processing: Fairness-Constraints waehrend des Trainings (Adversarial Debiasing)
  • Post-processing: Modell-Outputs anpassen (Threshold Adjustment pro Gruppe)
  • Produkt-Level: Human Review für High-Stakes-Entscheidungen, Einspruchsmechanismen, Transparenz über Limitierungen

Du bist PM bei einer Immobilienplattform. Euer AI-Feature bewertet Mietantraege und erstellt ein Scoring für Vermieter. Das Modell wurde auf historischen Mietdaten der letzten 10 Jahre trainiert.

Die Situation:

  • 30.000 Mietantraege/Monat
  • Gesamt-Accuracy: 89% (korrekte Vorhersage, ob Mieter zuverlässig zahlt)
  • Disaggregierte Analyse zeigt: Accuracy für Antragsteller mit deutsch klingendem Namen: 91%. Accuracy für Antragsteller mit tuerkisch oder arabisch klingendem Namen: 79%. Diese Disparitaet verschwindet in der Gesamtmetrik, weil die Mehrheitsgruppe die Stichprobe dominiert — ein klassisches Aggregationsproblem.
  • Feature-Analyse: “Vorname” ist kein direkter Input, aber “Stadtteil” und “bisherige Vermieter” korrelieren stark mit ethnischem Hintergrund
  • Der VP Product sagt: “Die Gesamt-Accuracy ist gut. Wir können launchen.”
  • EU AI Act Compliance ist ab August 2026 erforderlich

Optionen:

  1. Launchen: 89% Gesamt-Accuracy ist hoch genug, individuelle Fairness-Unterschiede sind akzeptabel
  2. Proxy-Features entfernen: “Stadtteil” und “bisherige Vermieter” aus dem Modell nehmen, neu trainieren
  3. Disaggregiert optimieren: Fairness-Metrik waehlen (z.B. Equalized Odds), Modell mit Fairness-Constraints neu trainieren, Accuracy-Verlust für die Mehrheitsgruppe in Kauf nehmen
Wie wuerdest Du entscheiden?

Die beste Entscheidung: Option 3 — Disaggregiert optimieren mit Equalized Odds.

Warum:

  • Option 1 ist rechtlich und ethisch untragbar: 12 Prozentpunkte Accuracy-Differenz nach ethnischem Hintergrund ist keine Randnotiz — es ist systematische Diskriminierung. Der EU AI Act verlangt explizit Bias-Erkennung und -Mitigation für Hochrisiko-Systeme (Artikel 10). Strafen für Verstoesse gegen Hochrisiko-Anforderungen: bis zu 15 Mio. EUR oder 3% des weltweiten Jahresumsatzes (die hoehere Schwelle von 35 Mio. EUR / 7% gilt nur für verbotene AI-Praktiken nach Artikel 5).
  • Option 2 ist noetig, aber nicht hinreichend: Proxy-Features zu entfernen reduziert direkte Korrelation, aber andere Features koennten denselben Bias kodieren. Und “Stadtteil” hat echten Informationswert für die Vorhersage — ihn blind zu entfernen senkt die Accuracy für alle.
  • Option 3 adressiert die Wurzel: Equalized Odds stellt sicher, dass zuverlaessige Mieter aller Gruppen gleiche Chancen auf korrekte Bewertung haben. Ja, die Gesamt-Accuracy sinkt vermutlich von 89% auf 85-87%. Aber ein faires Modell bei 86% ist einem diskriminierenden bei 89% vorzuziehen.
  • Zusätzlich: Einspruchsmechanismus für Antragsteller einbauen. Transparenz über den Score schaffen. Regelmaessige Re-Audits einplanen.

Haeufige Fehler:

  • “Wir nutzen keine geschuetzten Attribute, also sind wir fair” — Proxy-Diskriminierung ist real. Postleitzahl, Name und viele andere Features korrelieren mit geschuetzten Attributen.
  • “Bias ist ein Engineering-Problem” — Die Wahl der Fairness-Metrik ist eine Werte- und Produktentscheidung. Engineering implementiert die gewaehlte Definition.
  • “Eine Fairness-Metrik deckt alles ab” — Mathematisch inkompatibel (Impossibility Theorem). Der PM muss waehlen und verteidigen.

Fairness ist keine Bonus-Anforderung — sie ist eine Dimension jeder Evaluation. Und die Wahl der Fairness-Definition ist die vielleicht wichtigste Produktentscheidung bei AI.

  • Aggregierte Metriken verstecken Disparitaeten. Disaggregierte Evaluation nach geschuetzten Gruppen ist Pflicht — nicht optional.
  • Mehrere Fairness-Definitionen sind mathematisch inkompatibel (Impossibility Theorem). Der PM muss eine waehlen und die Wahl dokumentiert begruenden.
  • Der EU AI Act macht Bias-Testing für Hochrisiko-Systeme zur gesetzlichen Pflicht (Deadline: August 2026). Aber auch ohne Regulierung: Biased AI beschaedigt User-Vertrauen und erzeugt reale Schaeden.

Quellen: Buolamwini & Gebru — “Gender Shades” (2018), Chouldechova — “Fair prediction with disparate impact” (2017), Kleinberg et al. — “Inherent Trade-Offs in Algorithmic Fairness” (2016), EU AI Act (Regulation 2024/1689), NIST AI RMF 1.0, Reuters — Amazon Hiring Tool (2018), Apple Card Investigation (2019)

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn