Zum Inhalt springen
EN DE

Privacy

Ein Samsung-Ingenieur kopiert vertraulichen Quellcode in ChatGPT, um einen Bug zu finden. Innerhalb von Stunden wird der Fall intern eskaliert. Innerhalb von Tagen verbietet Samsung externe AI-Tools für alle Mitarbeiter.

Wenige Monate später blockiert Italien ChatGPT wegen GDPR-Bedenken zur Trainingsdatenerhebung. Microsofts Recall-Feature — das alle paar Sekunden Screenshots macht — wird von Sicherheitsforschern zerlegt: Die Daten lagen im Klartext vor.

Laut dem Stanford AI Index Report 2025 stiegen AI-bezogene Privacy- und Sicherheitsvorfaelle um 56,4% in einem Jahr auf 233 dokumentierte Faelle. Das ist kein Trend — das ist eine Welle.

AI-Produkte haben Privacy-Implikationen, die klassische Software nicht hat:

1. Training Data Privacy — Welche Daten wurden zum Training genutzt? Wurden sie mit Consent erhoben? Kann das Modell Trainingsdaten reproduzieren? Das liegt in der Verantwortung des Modellanbieters, aber als PM erbst Du das Risiko.

2. Inference Data Privacy — Was passiert mit User-Inputs und AI-Outputs? Werden Konversationen geloggt? Wer hat Zugriff? Werden sie für weiteres Training genutzt? Hier liegen die meisten PM-Entscheidungen.

3. Emergent Privacy Risks — AI kann sensitive Informationen aus nicht-sensitiven Inputs ableiten. Ein Modell kann Gesundheitszustaende aus Einkaufsmustern erkennen oder Individuen aus “anonymen” Daten identifizieren. Das ist die schwierigste Kategorie.

AnforderungBedeutung für AIPM-Implikation
RechtsgrundlageAI-Training braucht Consent oder Legitimate InterestKlaere frueh, auf welcher Basis Du Daten verarbeitest
Recht auf ErklärungArt. 22: Kein rein automatisiertes Decision-Making mit signifikanter WirkungHuman-in-the-Loop bei Entscheidungen, die Menschen betreffen
Recht auf LoeschungUser können Datenloesung verlangen — aber Modelle “vergessen” nichtTechnische Lösung für Machine Unlearning noetig
DatenminimierungNur erheben, was noetig istAI-Systeme, die alle verfügbaren Daten absaugen, widersprechen diesem Prinzip
DPIADatenschutz-Folgenabschaetzung bei Hochrisiko-VerarbeitungDie meisten AI-Anwendungen qualifizieren sich
TechnikWie es funktioniertTrade-offReife
Differential PrivacyKontrolliertes statistisches Rauschen; schuetzt Einzelbeitraege2-10% GenauigkeitsverlustProduktionsreif (Apple, Google)
Federated LearningTraining auf dezentralen Daten; nur Modell-Updates verlassen das GeraetLangsamere KonvergenzProduktionsreif für bestimmte Use Cases
Secure Multi-Party ComputationMehrere Parteien rechnen gemeinsam, ohne ihre Daten zu offenbarenRechenintensivFruehe Produktion
Homomorphic EncryptionRechnen auf verschluesselten Daten ohne EntschluesselungExtremer Overhead (1000x+ langsamer)Forschungsphase für ML

Der Privacy Tier Decision Guide — waehle das richtige Privacy-Niveau für Dein Produkt:

TierArchitekturWann verwendenBeispiel
Tier 1On-Device ProcessingHoechste Sensibilitaet; Gesundheit, FinanzenApple Intelligence
Tier 2Private Cloud mit kryptografischer VerifikationHohe Sensibilitaet; EnterpriseApple Private Cloud Compute
Tier 3API mit Data IsolationMittlere Sensibilitaet; Business-DatenChatGPT Enterprise, Claude Teams
Tier 4Shared APIGeringe Sensibilitaet; öffentliche DatenStandard-API-Zugriffe

Faustregel: Starte mit dem hoechsten Tier, das Dein Use Case erfordert, und gehe nur runter, wenn technische oder wirtschaftliche Gruende zwingend sind.

Du bist PM bei einem Health-Tech-Startup. Euer Produkt: Ein AI-Assistent, der Aerzten hilft, Arztbriefe zu diktieren und automatisch zu strukturieren. Das Feature soll Patientendaten im Diktat erkennen, strukturieren und in die Akte eintragen.

Die Fakten:

  • 200 Aerzte in der Beta, 500 Diktate pro Tag
  • Jedes Diktat enthaelt Patientennamen, Diagnosen, Medikation — alles geschuetzte Gesundheitsdaten (PHI)
  • Euer aktuelles Setup: Audio wird an eine Cloud-API gesendet, transkribiert, dann an ein LLM zur Strukturierung
  • Der API-Anbieter speichert Daten 30 Tage “für Qualitaetssicherung”
  • Ein Krankenhaus-Kunde fordert eine DPIA vor dem Rollout
  • Euer CTO sagt: “On-Device ist zu langsam und die Qualität reicht nicht”

Die Kosten für eine Private-Cloud-Lösung (Tier 2) waeren ~3x hoeher als die aktuelle Cloud-API (Tier 4).

Wie wuerdest Du entscheiden?

Die beste Entscheidung: Auf Tier 2 oder mindestens Tier 3 migrieren. Konkret: Einen API-Anbieter mit Zero-Retention-Policy waehlen oder eine Private-Cloud-Lösung aufbauen. Die DPIA durchführen — sie ist bei Gesundheitsdaten ohnehin Pflicht.

Warum:

  • Patientendaten (PHI) über eine Shared API zu schicken, die 30 Tage speichert, ist ein GDPR/DSGVO-Verstoss, der auf eine Katastrophe wartet
  • Gesundheitsdaten sind die sensibelste Datenkategorie — Tier 4 ist hier inakzeptabel
  • Die 3x hoeheren Kosten sind irrelevant im Vergleich zu einer GDPR-Strafe (bis zu 20 Mio. EUR oder 4% des Umsatzes) oder dem Verlust der Krankenhaus-Kunden
  • Die DPIA ist kein Blocker — sie ist eine Chance, das System sauber aufzubauen, bevor es skaliert

Was viele falsch machen: Die guenstige Cloud-API beibehalten und hoffen, dass niemand fragt, wo die Patientendaten landen — bis ein Datenschutzvorfall alles auffliegen laesst.

Privacy ist kein Compliance-Thema — es ist ein Produktthema. User treffen Adoptionsentscheidungen basierend auf Privacy-Vertrauen, und Enterprise-Kunden verlangen Data Isolation als Kaufvoraussetzung.

  • Anonymisierung allein reicht nicht — AI-Modelle können Individuen aus “anonymen” Daten re-identifizieren
  • “Wir nutzen nur die API” heisst nicht, dass keine Daten das System verlassen — lies die Retention Policies des Anbieters
  • Der Samsung-Vorfall hat über Nacht Enterprise-AI-Policies verändert; Privacy ist ein latentes Anliegen, das bei Vorfaellen akut wird

Quellen: Stanford AI Index Report 2025, GDPR Local — AI Privacy Risks, TensorBlue — AI Data Privacy 2025, Frontiers — Federated Learning (2025), Frontiers — AI Privacy Review (2026)

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn