Zum Inhalt springen
EN DE

Hallucination Management

Ein Anwalt reicht einen Schriftsatz bei Gericht ein. Die darin zitierten Praezedenzfaelle klingen ueberzeugend — Fallnummern, Gerichtsentscheidungen, Begruendungen. Nur: Keiner dieser Faelle existiert. ChatGPT hat sie erfunden. Der Anwalt wird vom Gericht sanktioniert.

Ein anderer Fall: Air Canadas AI-Chatbot erfindet eine Erstattungsrichtlinie für Trauerfaelle, die es nie gab. Ein Tribunal entscheidet: Die Airline haftet für die halluzinierte Policy.

Google Bards Launch-Demo 2023 enthaelt einen Faktenfehler über das James Webb Telescope. Die Folge: rund 100 Milliarden Dollar Rueckgang bei Alphabets Marktkapitalisierung an einem Tag — wobei auch andere Marktfaktoren eine Rolle spielten.

Hallucinations sind kein theoretisches Problem. Sie haben reale, messbare Konsequenzen — finanziell, rechtlich und für das Vertrauen Deiner User.

LLM-Hallucinations sind keine Software-Bugs, die man fixt. Sie sind eine strukturelle Eigenschaft der Architektur. LLMs generieren Text, indem sie das wahrscheinlichste nächste Token vorhersagen — basierend auf statistischen Mustern. Das bedeutet:

  • Plausibel klingender Text wird auch ohne relevante Trainingsdaten produziert
  • Die Confidence des Outputs korreliert nicht mit seiner Korrektheit
  • Dieselbe Architektur, die kreative Generierung ermoeglicht, ermoeglicht auch ueberzeugende Fabrikation
TypBeschreibungBeispiel
FaktenfabrikationErfundene Fakten, Zitate, StatistikenNicht-existierende Gerichtsfaelle
Entity ConfusionVerwechslung von Attributen realer EntitaetenPerson A wird Werk von Person B zugeschrieben
Temporale FehlerVeraltetes als aktuell darstellen”Der aktuelle CEO ist…” (laengst abgeloest)
Logische HallucinationKorrekt klingende, aber fehlerhafte ArgumentationskettenScheinbar valide Schlussfolgerungen aus falschen Praemissen
Source HallucinationEcht wirkende, aber erfundene QuellenURLs, Paper-Titel, DOIs, die nicht existieren

Mitigation-Strategien (keine loest das Problem allein)

Abschnitt betitelt „Mitigation-Strategien (keine loest das Problem allein)“

RAG (Retrieval-Augmented Generation) verankert Antworten in externen Dokumenten. Allgemeine Benchmarks zeigen Reduktionen von 40-71%. Aber: Für spezialisierte Domaenen ist das Bild anders — eine Stanford-Studie zu Legal RAG zeigt, dass Hallucinations “substanziell, vielfaeltig und potenziell heimtueckisch bleiben”, auch mit RAG. Die Reduktionsrate haengt stark von Retrieval-Qualität und Domaene ab.

Span-Level Verification prüft jede einzelne Behauptung gegen Evidenz aus abgerufenen Quellen. Geht über dokument-basiertes RAG hinaus zu satzbasiertem Grounding.

Multi-Candidate Evaluation generiert mehrere Antworten, bewertet sie mit einer Faktizitaetsmetrik und waehlt die verlaesslichste — ohne Modell-Retraining.

Human-in-the-Loop ist für Hochrisiko-Domaenen (Gesundheit, Recht, Finanzen) unverzichtbar. Skaliert schlecht, ist aber in manchen Kontexten die einzige verantwortbare Option.

PatternWann einsetzen
Source Attribution (Inline-Zitate mit Links)Immer bei faktischen Behauptungen
Confidence Indicators (visuelle Signale)Wenn Confidence variiert
”Verify this” NudgesHochrisiko-Domaenen
Regenerate-OptionWenn Variabilitaet erwartet wird
Edit-in-PlaceProfessionelle / Experten-User
Structured Output (Tabellen statt Fliesstext)Wenn Genauigkeit wichtiger ist als Lesbarkeit

Der Hallucination Risk Assessment — Risiko und Mitigation nach Domain:

DomainRisikoPflicht-MitigationNice-to-Have
Gesundheit / Recht / FinanzenKritischHuman-in-the-Loop + RAG gegen verifizierte QuellenSpan-Level Verification
Bildung / ForschungHochSource Attribution + Verification NudgesMulti-Candidate Evaluation
Internes Tooling / ProduktivitaetMittelDisclaimers + Regenerate-Option + Feedback-LoopConfidence Indicators
Kreativ / MarketingNiedrigerHuman Review vor VeroeffentlichungBrand Guidelines als Guardrails

Messung: Tracke Hallucination Rates nach Kategorie, nicht nur insgesamt. Tools: RAGAS, TruLens, DeepEval.

Du bist PM eines AI-Rechtsassistenten für eine mittelgrosse Kanzlei. Der Assistent soll Anwaelte bei der Recherche unterstuetzen — relevante Urteile finden, Zusammenfassungen erstellen, Argumentationslinien vorschlagen.

Die Fakten:

  • 80 Anwaelte nutzen das Tool taeglich
  • RAG-System mit Zugriff auf eine Rechtsdatenbank mit 2 Millionen Dokumenten
  • Interne Evaluation: 94% der zitierten Quellen sind korrekt (6% Hallucination Rate bei Quellenangaben)
  • 12% der Zusammenfassungen enthalten mindestens eine inhaltliche Ungenauigkeit
  • Ein Partner der Kanzlei will das Tool sofort für Client-facing Schriftsaetze freigeben
  • Ein anderer Partner will es komplett abschalten, weil “6% inakzeptabel ist”

Bei 80 Anwaelten mit durchschnittlich 5 Recherchen pro Tag sind das ca. 400 Recherchen taeglich — bei 6% Hallucination Rate also ~24 Recherchen pro Tag mit erfundenen Quellen.

Wie wuerdest Du entscheiden?

Die beste Entscheidung: Weder sofort freigeben noch abschalten. Das Tool als Recherche-Unterstuetzung behalten, aber mit striktem Human-in-the-Loop: Jede Quelle muss vom Anwalt verifiziert werden, bevor sie in einen Schriftsatz einfliesst. Parallel die Hallucination Rate durch Span-Level Verification und bessere Retrieval-Qualität senken.

Warum:

  • 6% Hallucination Rate bei Quellenangaben ist für ein Legal-Tool zu hoch für unueberwachte Nutzung — der Anwalt-Sanktionierungs-Fall zeigt die Konsequenzen
  • Aber 94% korrekte Quellen PLUS menschliche Verifikation ist deutlich besser als manuelle Recherche allein (die auch Fehler hat)
  • Das Air-Canada-Urteil zeigt: Dein Unternehmen haftet für halluzinierte Outputs — nicht das Modell, nicht der Anbieter
  • Der richtige Framing: AI als Recherche-Beschleuniger mit menschlicher Qualitaetskontrolle, nicht als autonomer Rechtsberater

Was viele falsch machen: Entweder auf die Hallucination Rate starren und das Tool killen (und damit echten Produktivitaetsgewinn verschenken) — oder die 6% ignorieren und auf den ersten Gerichts-Vorfall warten.

Hallucinations sind kein Bug, den Du fixst — sie sind ein Risiko, das Du managst. Deine Aufgabe als PM ist nicht, sie zu eliminieren (das geht nicht), sondern Produkte zu bauen, die trotz Hallucinations verlaesslich sind.

  • RAG reduziert Hallucinations um 40-71% — das bedeutet, 29-60% bleiben. Es ist eine Mitigation, keine Lösung
  • Disclaimer sind rechtlich nuetzlich, aber verhaltensmaessig unwirksam — User gewoehnen sich innerhalb von Minuten daran. Aktive UX-Patterns (Inline-Zitate, Confidence-Signale) wirken besser
  • Die Verbesserung von Hallucination Rates ist logarithmisch — jede marginale Verbesserung wird schwieriger. Für Hochrisiko-Domaenen ist die aktuelle Rate unakzeptabel, unabhängig vom Trend

Quellen: Stanford Legal RAG Study (2025), Lakera — LLM Hallucinations Guide, MDPI Hallucination Mitigation Survey, Air Canada Chatbot Tribunal Ruling (2024), arxiv Hallucination Survey (2510.24476)

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn