Zum Inhalt springen
EN DE

Synthese: Product Design

Du hast vier Lektionen durchgearbeitet: wie AI-native UX funktioniert, wie Du Vertrauen und Erklaerbarkeit gestaltest, welche Interaktionsmuster zwischen Mensch und AI funktionieren, und wie Du generative Features designst.

Einzeln sind das Design-Werkzeuge. Zusammen bilden sie eine Gestaltungslogik: Lektion 1 fragt WIE Nutzer mit AI interagieren. Lektion 2 fragt WARUM sie dem Output vertrauen sollten. Lektion 3 fragt WER die Kontrolle hat. Lektion 4 fragt WAS AI produziert — und wie Nutzer das Ergebnis zu ihrem machen.

Die UX-Patterns (L1) bestimmen, wie Vertrauen sichtbar wird (L2), welchen Autonomiegrad Du anbieten kannst (L3), und wie iterativ Dein generativer Output wird (L4).

Alle vier Lektionen konvergieren auf eine zentrale Frage: Wie viel Kontrolle behaelt der Nutzer? Von vollem User-Control (Copilot Ghost Text, wo jeder Vorschlag explizit angenommen wird) bis hin zu voller AI-Autonomie (autonome Agenten, die eigenstaendig handeln) — jedes AI-Produkt positioniert sich auf diesem Spektrum.

Für Dich als PM: Die Design-Herausforderung ist nicht, den “richtigen” Punkt auf dem Spektrum zu finden. Es ist, das Spektrum sichtbar und konfigurierbar zu machen — ein Autonomy Dial, das Nutzer selbst einstellen können, wenn sie Vertrauen aufbauen.

2. Vertrauen entsteht durch Recovery, nicht durch Perfektion

Abschnitt betitelt „2. Vertrauen entsteht durch Recovery, nicht durch Perfektion“

Das Service Recovery Paradox zeigt: Nutzer, die ein Problem erleben und es erfolgreich geloest bekommen, vertrauen dem Produkt staerker als Nutzer, die nie ein Problem hatten. Das gilt für AI-Produkte besonders, weil Fehler unvermeidlich sind.

Für Dich als PM: Investiere mehr UX-Budget in Error States, Undo-Funktionen und Korrektur-Flows als in den Happy Path. Die Qualität Deines Fehler-Handlings definiert die Qualität Deines Produkts.

Dasselbe Prinzip zieht sich durch alle vier Lektionen — nur die Auspraegung ändert sich. L1: Ergebnis → detaillierte Optionen → Raw Output. L2: Ergebnis → Konfidenz → Quellen → vollständige Reasoning Chain. L3: Vorschlag → Preview → Aktion → Audit Trail. L4: Generierung → Varianten → Verfeinerung → finales Ergebnis.

Für Dich als PM: Zeige Komplexität proportional zum Nutzerbedarf. Nicht alles auf einmal, aber alles erreichbar. Die Kunst liegt in der Schichtung — nicht im Verstecken.

“It takes time to think AI-native” (Lenny’s Newsletter). Jedes erfolgreiche AI-Produkt durchlaeuft drei Phasen: Bolt-on (AI auf bestehendes UI geschraubt), Integrated (AI in Workflows eingebettet) und AI-native (Produkt um AI herum gedacht). Die meisten Produkte stecken in Phase 1 — und Nutzer merken es.

Für Dich als PM: Die drei Phasen sind kein Qualitaetsurteil, sondern ein natuerlicher Reifeprozess. Aber bleib nicht in Phase 1 stecken. Jede Design-Entscheidung sollte fragen: Denke ich noch in alten UI-Mustern, oder gestalte ich für das, was AI tatsaechlich kann?

Figma’s 2025-Studie zeigt die Kluft: 78% der Nutzer sagen, AI macht Arbeit schneller — aber weniger als 50% sagen, sie macht Arbeit besser. Geschwindigkeit ohne Qualität ist keine Lösung. Es ist ein neues Problem.

Für Dich als PM: Deine UX-Aufgabe ist nicht, menschliches Urteilsvermoegen durch Automatisierung zu ersetzen. Es ist, Nutzern zu helfen, ihr Urteilsvermoegen effizienter einzusetzen. Speed-to-judgment, nicht speed-to-output.

AI-Produkte scheitern selten an der Technologie. Sie scheitern am Vertrauensdesign. Die Frage ist nicht “Kann unser Modell das?” sondern “Versteht der Nutzer, was passiert — und kann er eingreifen, wenn es schiefgeht?”

Das unterscheidet AI-Design von klassischem UX-Design. Du gestaltest nicht nur Interfaces. Du gestaltest eine Beziehung zwischen Mensch und probabilistischem System — und Beziehungen brauchen Transparenz, Kontrolle und die Möglichkeit zur Korrektur.

Was Du jetzt können solltest:

  • Die richtige Interaktionsmodalitaet waehlen (Chat vs. strukturiert vs. hybrid) — Lektion 1
  • AI-Konfidenz und Unsicherheit angemessen kommunizieren — Lektion 2
  • Vertrauen durch Quellenangaben und “show your work” gestalten — Lektion 2
  • Den richtigen Autonomiegrad für Deinen Use Case setzen — Lektion 3
  • Feedback Loops designen, die das System tatsaechlich verbessern — Lektion 3
  • Generative Features für Iteration statt Single-Shot gestalten — Lektion 4
  • Nutzer-Erwartungen durch ehrliches Onboarding managen — Lektion 4

Wenn Du bei einem Punkt unsicher bist, geh zurück zur entsprechenden Lektion. Diese Design-Grundlagen entscheiden, ob Nutzer Deinem AI-Produkt vertrauen — oder es nach drei Versuchen aufgeben.

Du designst AI-Features. Kapitel 4 gibt Dir die technische Sprache, um mit Engineers auf Augenhoehe zu sprechen.

Drei Szenarien, die mehrere Konzepte aus diesem Kapitel kombinieren. Ueberleg Dir Deine Antwort, bevor Du die Aufloesung oeffnest.

Dein Team hat einen AI-gesteuerten Finanzberater-Chatbot gelauncht. Die Antwortqualitaet ist hoch, aber die User-Retention nach einer Woche liegt bei nur 15%. Nutzerinterviews zeigen: “Ich weiss nicht, ob ich dem vertrauen kann.” Wie redesignst Du das Feature?

Aufloesung

Das Problem ist nicht die Antwortqualitaet, sondern das Vertrauensdesign (Lektion 2). Drei Hebel: Erstens, “Show your work” — Quellenangaben und Reasoning Chain sichtbar machen, damit Nutzer nachvollziehen können, wie der Bot zu seiner Empfehlung kommt. Zweitens, Konfidenz-Kommunikation einbauen: Wo ist der Bot sicher, wo unsicher? Drittens, Progressive Disclosure (Connection 3) anwenden: Ergebnis zuerst, dann auf Wunsch Konfidenz, Quellen und die vollständige Reasoning Chain. Zusätzlich solltest Du den Autonomiegrad (Lektion 3) ueberdenken — bei Finanzen ist ein Copilot-Ansatz (Vorschlag + User-Entscheidung) vertrauenswuerdiger als ein autonomer Agent.

Dein Produktteam hat einem bestehenden Notiz-Tool einen “AI schreib für mich”-Button hinzugefuegt. Die Feature-Adoption liegt bei 8% nach drei Monaten, und das Feedback ist: “Das fuehlt sich aufgesetzt an.” Wie gehst Du das Problem an?

Aufloesung

Das ist ein klassisches Bolt-on-Problem (Connection 4, AI-Native Rethink): AI wurde auf ein bestehendes UI geschraubt, statt in den Workflow integriert zu werden. Der Weg fuehrt von Phase 1 (Bolt-on) zu Phase 2 (Integrated). Statt eines separaten Buttons sollte AI in den Schreibfluss eingebettet sein — z.B. als Ghost Text im Copilot-Stil (Lektion 3), der beim Tippen Vorschlaege macht. Das adressiert auch die Judgment Gap (Connection 5): Nutzer wollen nicht, dass AI für sie schreibt, sondern dass AI ihnen hilft, besser zu schreiben. Generative Features sollten auf Iteration statt Single-Shot ausgelegt sein (Lektion 4) — Varianten anbieten, verfeinern lassen, nicht ein fertiges Ergebnis praesentieren.

Du designst ein AI-Feature für ein E-Mail-Tool, das automatisch Antworten vorschlaegt. In Tests zeigt sich: Power User wollen, dass die AI Routine-Mails direkt versendet. Gelegentliche Nutzer wollen jeden Vorschlag erst prüfen. Wie loest Du diesen Konflikt?

Aufloesung

Das ist genau das Autonomie-Spektrum (Connection 1): Verschiedene Nutzer brauchen verschiedene Positionen auf dem Spektrum. Die Lösung ist ein Autonomy Dial (Lektion 3) — konfigurierbare Autonomie, die Nutzer selbst einstellen können. Für neue Nutzer startest Du im Copilot-Modus (Vorschlag anzeigen, Nutzer bestaetigt). Mit wachsendem Vertrauen können Nutzer den Autonomiegrad erhöhen — z.B. “Routine-Antworten nach meiner Freigabe direkt senden.” Wichtig: Auch im autonomen Modus braucht es Recovery-Möglichkeiten (Connection 2) — Undo, Audit Trail, Benachrichtigung über gesendete Mails. Vertrauen entsteht durch die Möglichkeit zur Korrektur, nicht durch Fehlerfreiheit.


Quellen: Aufbauend auf Lektionen 1–4. Lenny’s Newsletter “Counterintuitive Advice for Building AI Products” (2024), Figma AI & Design Report (2025), Service Recovery Paradox Research, Google PAIR Guidelines (2024), Nielsen Norman Group AI UX Studies (2024–2025)

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn