Generative Features
Context
Abschnitt betitelt „Context“Dein Team hat einen AI-Textgenerator ins Produkt integriert. Die Demo war beeindruckend. Jetzt kommen die Support-Tickets: “Der Output ist falsch”, “Das klingt nicht wie ich”, “Warum kann ich das nicht einfach anpassen?”
Das Problem ist nicht das Modell. Das Problem ist, dass generative Features einen fundamental anderen UX-Ansatz brauchen als deterministische Features. Ein Button liefert immer dasselbe Ergebnis. Ein generatives Feature liefert jedes Mal etwas anderes — und Dein User muss entscheiden, ob es gut genug ist.
Concept
Abschnitt betitelt „Concept“Das Grundproblem: Non-Deterministic Output
Abschnitt betitelt „Das Grundproblem: Non-Deterministic Output“Generative Features haben eine einzigartige Herausforderung: Die Qualität variiert. Jeder Output ist ein Entwurf, kein Endergebnis. Das erzeugt drei Spannungsfelder:
- Bewertungslast: Der User muss jeden Output selbst bewerten — das kostet kognitive Energie
- Expectation Gap: AI ist probabilistisch, Stakeholder erwarten deterministisch. Figma 2025: 78% sagen AI steigert Effizienz, aber unter 50% sagen, sie macht sie besser
- Draft-to-Final Gap: Zwischen “erster Entwurf” und “fertiger Output” liegt ein Workflow, den Du designen musst
UX-Patterns nach Modalitaet
Abschnitt betitelt „UX-Patterns nach Modalitaet“Text Generation:
- Inline Generation (Notion AI): Slash-Command, Output erscheint direkt im Dokument. Geringste Friction, aber limitierte Kontrolle
- Side-Panel (ChatGPT Canvas, Claude Artifacts): Separates Panel mit direkter Editiermoeglichkeit. Mehr Kontext, mehr Kontrolle
- Highlight-and-Instruct (Canvas): Text markieren, gezielte Änderung anweisen. Praeziseste Methode
- Visual Diff (Notion): Loeschungen grau, Ergaenzungen blau. User sieht sofort was sich ändert
Image Generation (Midjourney-Paradigma):
- 4-Bild-Grid, auswaehlen, Variationen (subtle/strong), Upscale, Refine, Export
- Nie Commitment zu einer einzelnen Generation erzwingen
- Vary Region für partielle Regeneration — nur den Teil ändern, der nicht passt
Code Generation:
- Inline Completion (Copilot): Ghost Text, Tab zum Akzeptieren. Minimale Unterbrechung
- Prompt-to-Code (v0): Chat zu kompletten Komponenten, Live Preview, iterieren
Edit/Refine Workflows
Abschnitt betitelt „Edit/Refine Workflows“Der Output ist selten beim ersten Mal perfekt. Dein Produkt braucht mindestens zwei dieser Mechanismen:
- Conversational Refinement: “Mach es kuerzer” — natuerlichsprachliche Iteration
- Direct Editing: User tippt direkt im AI-Output-Panel
- Variation Branching: Mehrere Alternativen aus einer Basis generieren
- Behavioral Contracts: Definiere was die AI darf, nicht darf, und worueber sie vorher fragen soll
Quality Guardrails
Abschnitt betitelt „Quality Guardrails“- Input Guardrails: Filtern bevor das Modell den Prompt sieht
- Output Guardrails: Ergebnis prüfen bevor der User es sieht
- Fallback UX: Wenn ein Output geblockt wird — nicht nur Fehlermeldung, sondern Alternative anbieten
- False-Positive-Spannung: Legitime Prompts werden geblockt. Zu streng = frustrierend, zu locker = riskant
- Latenz-Impact: Jeder Guardrail kostet Zeit. Kommuniziere Wartezeit, nicht nur Ergebnis
Framework
Abschnitt betitelt „Framework“Generative Feature Design Matrix:
| Dimension | Frage | Low Maturity | High Maturity |
|---|---|---|---|
| Output-Kontrolle | Kann der User den Output anpassen? | Nur Regenerate-Button | Edit, Refine, Variationen |
| Erwartungsmanagement | Weiss der User was er bekommt? | Keine Guidance | Onboarding, Beispiele, Limitations |
| Guardrails | Wie wird Qualität gesichert? | Nur Output-Filter | Input + Output + Fallback UX |
| Iteration | Wie verfeinert der User? | Copy-Paste in neuen Prompt | Conversational Refinement + Direct Edit |
| Feedback-Loop | Lernt das System vom User? | Kein Feedback | Thumbs, Edits als Signal, Behavioral Contracts |
Minimum Viable Generative Feature: Output-Kontrolle + Erwartungsmanagement + mindestens ein Refine-Mechanismus. Ohne diese drei schickst Du User in eine Sackgasse.
Scenario
Abschnitt betitelt „Scenario“Du bist PM bei einem Content-Marketing-SaaS. Euer neues Feature: AI-generierte Blog-Drafts aus Briefings. Beta-Daten nach 4 Wochen:
- 2.400 Drafts generiert, 68% werden weiterbearbeitet (gut)
- Durchschnittlich 4,2 Regenerations pro Draft bevor User zufrieden sind (schlecht)
- 31% der User brechen nach 2+ Regenerations ab und schreiben selbst
- NPS des Features: +12 (Hauptprodukt: +38)
- Top-Beschwerden: “Klingt generisch”, “Kann Tonalitaet nicht anpassen”, “Aenderungen betreffen immer den ganzen Text”
Optionen:
- Modell-Upgrade: Besseres Base Model, hoffen auf bessere Erstqualitaet. Kosten: $40k/Jahr mehr API-Kosten
- Refine-Workflow: Highlight-and-Instruct + Tonfalleinstellungen + Visual Diff. Kosten: 6 Wochen Engineering
- Variation-First: 3 Varianten pro Generation + Misch-Funktion. Kosten: 4 Wochen Engineering, 2x API-Kosten
Wie wuerdest Du entscheiden?
Die beste Entscheidung: Option 2 — Refine-Workflow.
Warum:
- Das Problem ist nicht die Erstqualitaet (68% Weiterbearbeitung ist solide) — das Problem ist, dass User den Output nicht gezielt anpassen können
- 4,2 Regenerations pro Draft zeigt: User wissen was sie wollen, haben aber kein Werkzeug um es dem System mitzuteilen
- Highlight-and-Instruct loest die Top-Beschwerde “Aenderungen betreffen immer den ganzen Text” direkt
- Tonfalleinstellungen als Behavioral Contract: User definiert vorher was die AI soll
Warum nicht die anderen:
- Option 1: Ein besseres Modell reduziert vielleicht von 4,2 auf 3 Regenerations — aber ohne Edit-Workflow bleiben User trotzdem in der Regeneration-Schleife
- Option 3: Variationen helfen bei der Auswahl, nicht beim Verfeinern. Der Kern-Pain ist “Ich kann nichts gezielt ändern”
Reflect
Abschnitt betitelt „Reflect“- Generative Features sind keine Outputs — sie sind Workflows. Der Generate-Button ist der Anfang, nicht das Ende. Ohne Edit/Refine-Mechanismen lieferst Du einen Slot Machine statt ein Werkzeug.
- Erwartungsmanagement ist Product Design. Wer nicht kommuniziert, dass AI probabilistisch arbeitet, erzeugt Enttaeuschung. Onboarding-Ehrlichkeit (“Ich lerne noch”) ist kein Schwaeche-Eingestaendnis — es ist UX.
- Guardrails kosten Latenz, keine Guardrails kosten Vertrauen. Finde die Balance und kommuniziere Wartezeiten transparent.
- User-Segmente unterscheiden sich radikal. Embracers wollen Power-Features, Skeptiker brauchen Safety Nets. Segmentiere nach AI-Attitude, nicht nur nach Rolle.
Quellen: Figma AI Report (2025), Notion AI UX Patterns (2024), Midjourney UX Documentation (2024), Lenny’s Newsletter — User Segmentation for AI (2024), OpenAI Canvas Design Blog (2024)