Zum Inhalt springen
EN DE

Interaction Patterns

Dein AI-Feature funktioniert technisch. Die Accuracy ist gut, das Modell liefert. Dann kommt das Nutzer-Feedback: “Ich weiss nicht, was es gerade tut.” “Warum hat es das einfach gemacht?” “Wie mache ich das rueckgaengig?”

Das Problem ist nicht die AI. Das Problem ist das Interaktionsdesign. Als PM entscheidest Du nicht nur was die AI tut — sondern wie viel Kontrolle der Nutzer hat, wann die AI handelt, und was passiert wenn sie falsch liegt.

Nicht jede AI-Interaktion braucht dieselbe menschliche Kontrolle. Es gibt drei Stufen:

  • Human-in-the-Loop: AI schlägt vor, Mensch muss explizit genehmigen bevor etwas passiert. Hoechste Sicherheit, niedrigste Geschwindigkeit. Beispiel: Arzt bestaetigt AI-Diagnose.
  • Human-on-the-Loop: AI handelt, Mensch ueberwacht und kann eingreifen. Moderater Trade-off. Beispiel: AI kategorisiert Tickets, Team prüft Dashboard.
  • Human-out-of-the-Loop: AI handelt vollständig autonom. Nur für niedrig-riskante, validierte Tasks. Beispiel: Spam-Filter.

Die Interaktion zwischen Nutzer und AI liegt auf einem Spektrum:

PatternAI tutNutzer tutBeispiel
SuggestionSchlaegt vorEntscheidetGitHub Copilot Ghost Text
Auto-completeFuellt ausKann ueberschreibenGmail Smart Compose
Action mit PreviewHandelt, zeigt VorschauBestaetigt oder verwirftNotion AI Diff (grau/blau)
Autonome ActionHandelt ohne GenehmigungWird informiertLinear Auto-apply
Autonom mit UndoHandelt ohne GenehmigungKann rueckgaengig machenE-Mail-Kategorisierung

PM-Implikation: Je weiter rechts auf dem Spektrum, desto mehr investierst Du in Undo, Audit und Erklaerbarkeit.

Jede AI-Interaktion hat drei Phasen, die Du bewusst gestalten musst:

  • Pre-Action: Intent Preview (was wird die AI tun?), Autonomy Dial (wie viel Kontrolle hat der Nutzer?)
  • In-Action: Explainable Rationale (warum tut sie das?), Confidence Signal (wie sicher ist sie?)
  • Post-Action: Action Audit und Undo (was hat sie getan, wie mache ich es rueckgaengig?), Escalation Pathway (was passiert bei Problemen?)

Wenn die AI an ihre Grenzen stoesst, braucht sie klare Eskalationswege:

  • Confidence-basiert: Unter einem Schwellenwert → automatisch an Menschen uebergeben
  • Risiko-basiert: High-Stakes-Entscheidungen immer menschlich
  • Expertise-Routing: AI lernt, welche Menschen für welche Fragen am besten sind
  • Channel-basiert: Slack/E-Mail/Dashboard je nach Dringlichkeit

Nutzer müssen der AI Feedback geben können — aber richtig:

  • Blocking Feedback: AI pausiert und wartet auf Input. Gut für kritische Entscheidungen.
  • Parallel Feedback: AI arbeitet weiter, Feedback kommt asynchron. Gut für Volumen-Tasks.

Apple unterscheidet drei Feedback-Typen: Implizit (Verhalten), Explizit (Daumen hoch/runter), Korrekturen (Fehler beheben). Wichtig: Korrekturen sind kein Ersatz für schlechte Ergebnisse. Gefuehrte Korrekturen (Auswahl aus Optionen) schlagen freie Korrekturen (Freitextfeld).

Erfolgreiche Fehlerbehebung erzeugt mehr Loyalitaet als fehlerfreie Performance. Das bedeutet: Investiere mehr UX-Budget in Error States und Undo als in den Happy Path.

Interaction Pattern Decision Matrix — waehle das richtige Pattern basierend auf Risiko und Frequenz:

Niedrige FrequenzHohe Frequenz
Hohes RisikoHuman-in-the-Loop + Action mit PreviewHuman-on-the-Loop + Confidence-Eskalation
Niedriges RisikoSuggestion oder Auto-completeAutonome Action mit Undo

Checkliste für jede AI-Interaktion:

PhaseMuss vorhanden seinBeispiel
PreIntent Preview”Ich werde 3 Absaetze zusammenfassen”
PreAutonomy DialNutzer kann Autonomie-Level einstellen
InConfidence SignalFarbcodierung, Prozentanzeige
InErklärung”Basierend auf den letzten 5 Tickets”
PostUndoEin-Klick-Rueckgaengig
PostEscalation Pathway”An Mensch uebergeben”-Button

Du bist PM bei einem B2B-Tool für Vertragsmanagement. Eure AI soll Vertraege automatisch prüfen und Risiken markieren. 3.000 Vertraege pro Monat, 40% Standard-NDAs, 35% Dienstleistungsvertraege, 25% komplexe individuelle Vertraege.

Eure Optionen:

  1. Suggestion-only: AI markiert Risiken, Jurist prüft jeden Vertrag manuell
  2. Gestaffelt: Standard-NDAs autonom mit Undo, Dienstleistungsvertraege mit Preview, komplexe Vertraege Suggestion-only
  3. Voll autonom: AI prüft alle Vertraege, Juristen prüfen nur Eskalationen

Die Zahlen:

  • AI Accuracy: 96% bei NDAs, 88% bei Dienstleistungsvertraegen, 74% bei komplexen Vertraegen
  • Durchschnittlicher Schaden bei uebersehener Klausel: NDA €800, Dienstleistung €4.200, komplex €18.000
  • Aktuelle manuelle Pruefung: 45 Min pro Vertrag, 8 Juristen
Wie wuerdest Du das Interaktionsdesign aufsetzen?

Die beste Entscheidung: Option 2 — gestaffelte Autonomie.

Warum:

  • NDAs bei 96% Accuracy und €800 Fehlerkosten: Autonome Action mit Undo ist vertretbar. Das spart ~45 Min x 1.200 Vertraege = 900 Stunden/Monat.
  • Dienstleistungsvertraege bei 88% und €4.200 Fehlerkosten: Action mit Preview — AI markiert Risiken, zeigt Diff, Jurist bestaetigt. Human-on-the-Loop.
  • Komplexe Vertraege bei 74% und €18.000 Fehlerkosten: Suggestion-only. AI liefert Analyse, Jurist entscheidet. Human-in-the-Loop.
  • Investiere in Post-Action: Undo für NDAs, Audit Trail für alles, Escalation Pathway wenn Confidence unter 85%.

Service Recovery: Baue exzellente Error States. Wenn die AI eine Klausel uebersieht und der Jurist es korrigiert — zeige was passiert ist, lerne daraus, melde es transparent. Das baut mehr Vertrauen auf als fehlerfreie Demos.

  • Autonomie ist kein Schalter, sondern ein Regler. Verschiedene Tasks im selben Produkt brauchen verschiedene Interaktionsmuster. Risiko und Fehlerkosten bestimmen die Stufe.
  • Gestalte alle drei Phasen. Pre-Action (was wird passieren?), In-Action (warum?), Post-Action (wie rueckgaengig?). Die meisten Produkte investieren nur in die Mitte.
  • Undo schlägt Genehmigung. Für niedrig-riskante, hoch-frequente Tasks ist Undo effizienter als Approval Flows — und Nutzer vertrauen dem System mehr, weil sie die Kontrolle behalten.
  • Investiere in Fehler, nicht nur in Erfolge. Der Service Recovery Paradox zeigt: Gute Fehlerbehandlung erzeugt mehr Loyalitaet als perfekte Performance.

Quellen: Apple Human Interface Guidelines — Machine Learning (2024), Smashing Magazine “Designing AI-Powered Interfaces” (2026), GitHub Copilot Interaction Design, Linear Product Updates, Notion AI UX Patterns, Gmail Smart Compose Research (Google, 2023)

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn