Zum Inhalt springen
EN DE

Synthese: Ethics & Governance

Du hast vier Lektionen durchgearbeitet: was Responsible AI in der Praxis bedeutet, wie Guardrails AI-Verhalten begrenzen, warum Privacy in AI-Produkten mehrere Oberflaechen hat, und wie Du mit der strukturellen Realität von Hallucinations umgehst.

Diese Themen werden oft als separate Compliance-Aufgaben behandelt. Das ist ein Fehler. Sie bilden zusammen den ethischen Stack Deines AI-Produkts — und jede Schicht haengt von den anderen ab.

1. Responsible AI ist der Rahmen — der Rest ist Operationalisierung

Abschnitt betitelt „1. Responsible AI ist der Rahmen — der Rest ist Operationalisierung“

Responsible AI (Lektion 1) definiert das “Was” und “Warum”. Guardrails (Lektion 2) sind das “Wie” auf technischer Ebene. Privacy (Lektion 3) schuetzt die User. Hallucination Management (Lektion 4) erhaelt das Vertrauen. Ohne den Rahmen fehlt den Massnahmen die Richtung; ohne die Massnahmen bleibt der Rahmen ein PDF.

Für Dich als PM: Fang beim Rahmen an (EU AI Act Risiko-Klassifizierung) und arbeite Dich zu den konkreten Massnahmen vor.

2. Guardrails und Hallucination Management ueberlappen

Abschnitt betitelt „2. Guardrails und Hallucination Management ueberlappen“

RAG ist gleichzeitig eine Hallucination-Mitigation (Lektion 4) UND ein Guardrail (Lektion 2) — es verankert Outputs in verifizierten Quellen. Output-Filter sind Guardrails, die auch halluzinierte schaedliche Inhalte abfangen. Dieselbe Infrastruktur dient beiden Zwecken.

Für Dich als PM: Plane Guardrails und Hallucination-Mitigation nicht als separate Workstreams. Sie teilen sich Architektur und Tools.

Effektive Guardrails erfordern die Inspektion von User-Inputs (Jailbreak-Detection, PII-Erkennung). Aber Input-Inspektion hat Privacy-Implikationen (Lektion 3). Die Lösung: Input-Filtering muss VOR dem Logging und Speichern passieren.

Für Dich als PM: Balance Safety-Monitoring mit Datenminimierung. Die Reihenfolge der Processing-Pipeline bestimmt, ob Du beides erreichst.

Der EU AI Act verlangt all diese Themen gleichzeitig: Risikomanagement (Lektion 1), technische Robustheit (Lektion 2), Daten-Governance (Lektion 3) und Genauigkeit/Transparenz (Lektion 4). Ab August 2026 ist das keine Best Practice mehr — es ist Pflicht für Hochrisiko-Systeme.

Für Dich als PM: Der EU AI Act ist Dein natuerlicher Rahmen, auch wenn Du nicht in der EU bist — er setzt den globalen Standard.

Ethics und Governance in AI sind keine abstrakten Unternehmenswerte — sie sind konkrete Produktanforderungen, die Architektur, UX, Go-to-Market und Business Model beeinflussen. Der PM, der sie als Checkbox behandelt, erlebt Vorfaelle, Strafen und User-Verlust. Der PM, der sie von Tag eins integriert, baut haltbarere und letztlich erfolgreichere Produkte.

Was Du jetzt können solltest:

  • Ein AI-Feature in EU AI Act Risiko-Stufen einordnen und daraus Anforderungen ableiten — Lektion 1
  • Guardrails designen, die Safety und Utility balancieren (Block Rate UND User Satisfaction messen) — Lektion 2
  • Die Privacy-Architektur Deines AI-Produkts bewerten und das richtige Tier waehlen — Lektion 3
  • Eine Hallucination-Mitigation-Strategie für Deine Domain definieren (Technik + UX) — Lektion 4
  • Den Zusammenhang zwischen allen vier Themen erklären und sie als integrierten Stack umsetzen — Synthese

Wenn ein Punkt unsicher ist, geh zurück zur entsprechenden Lektion. Diese Themen sind nicht optional — sie bestimmen, ob Dein AI-Produkt Vertrauen aufbaut oder zerstoert.

Du kennst die Risiken. Kapitel 8 zeigt, wie Du AI-Projekte in der Praxis umsetzt — PRDs, Lifecycle, Teams.

Drei Szenarien, die mehrere Konzepte aus diesem Kapitel kombinieren. Ueberleg Dir Deine Antwort, bevor Du die Aufloesung oeffnest.

Dein Team baut einen AI-Chatbot für eine Krankenversicherung, der Versicherten bei Gesundheitsfragen hilft. Der ML-Lead schlägt vor, alle Chat-Verlaeufe zu loggen, um Hallucinations besser zu erkennen und Guardrails zu verbessern. Die Compliance-Abteilung ist begeistert — mehr Daten, bessere Qualität. Was ist Deine Position als PM?

Aufloesung

Hier kollidieren Privacy (Lektion 3) und Guardrails/Hallucination Management (Lektionen 2+4). Gesundheitsdaten sind hochsensibel — vollstaendiges Logging widerspricht dem Prinzip der Datenminimierung. Die richtige Lösung: Input-Filtering und Hallucination-Detection müssen VOR dem Logging passieren. Du kannst aggregierte Metriken (Hallucination Rate, Block Rate) tracken, ohne individuelle Gespraeche zu speichern. Als Hochrisiko-System unter dem EU AI Act brauchst Du beides: robuste Qualitaetssicherung UND Privacy by Design.

Ein Startup pitcht Deinem Unternehmen ein AI-Tool, das öffentlich verfuegbare Social-Media-Daten analysiert, um Persoenlichkeitsprofile von Bewerbern zu erstellen. Das Tool hat beeindruckende Accuracy-Metriken und der CEO ist begeistert. Du sollst als PM die Integration verantworten. Wie bewertest Du das?

Aufloesung

Dieses Szenario verbindet Responsible AI (Lektion 1) mit Bias/Fairness und Privacy (Lektion 3). Erstens: Recruiting faellt unter Hochrisiko im EU AI Act — strenge Anforderungen. Zweitens: Die Datenerhebung ohne explizite Einwilligung ist das Clearview-AI-Muster aus Lektion 1 — technisch möglich, aber ethisch und rechtlich problematisch. Drittens: Social-Media-Daten korrelieren mit Alter, Ethnie und sozioekonomischem Status, was systematische Bias erzeugt. Als PM solltest Du das Projekt ablehnen und dokumentieren warum — ein Rahmen ohne Responsible-AI-Prinzipien fuehrt hier zu Reputations- und Rechtsrisiken.

Dein AI-Schreibassistent für Juristen blockiert 15% aller Anfragen — dreimal mehr als der Branchendurchschnitt. Die Guardrails wurden konservativ eingestellt, weil juristische Inhalte sensibel sind. Nutzer beschweren sich massiv, die Retention sinkt. Dein Engineering-Lead will die Guardrails lockern, Dein Legal-Team will sie beibehalten. Was tust Du?

Aufloesung

Hier ueberlappen Guardrails (Lektion 2) und Hallucination Management (Lektion 4). Eine hohe Block Rate allein ist kein Qualitaetsmerkmal — Du musst Block Rate UND User Satisfaction messen. Der richtige Ansatz: Analysiere, WELCHE Anfragen geblockt werden. Wahrscheinlich sind viele False Positives darunter. Statt Guardrails pauschal zu lockern, fuehre differenzierte Guardrails ein — strengere Output-Validierung bei medizinischen/finanziellen Aussagen, lockerere bei Formulierungshilfe. Ergaenze mit RAG (gleichzeitig Guardrail und Hallucination-Mitigation), um Outputs in verifizierten Rechtsquellen zu verankern.


Quellen: Aufbauend auf Lektionen 1–4. Anthropic RSP 3.0 (2026), EU AI Act (artificialintelligenceact.eu), Stanford Legal RAG Study (2025), NVIDIA NeMo Guardrails, Stanford AI Index Report 2025

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn