Wann AI
Context
Abschnitt betitelt „Context“Dein Stakeholder will einen “AI-powered” Workflow. Dein Engineering-Team kann das bauen. Die Frage, die niemand stellt: Braucht dieses Problem überhaupt AI?
Als PM ist Deine wichtigste Faehigkeit nicht, AI einzusetzen — sondern zu erkennen, wann Du es nicht tun solltest. Denn die teuersten AI-Projekte sind nicht die, die scheitern. Es sind die, die ein Problem loesen, das keins war.
Concept
Abschnitt betitelt „Concept“Deterministisch vs. Probabilistisch
Abschnitt betitelt „Deterministisch vs. Probabilistisch“Nicht jedes Problem ist ein AI-Problem. Die entscheidende Frage: Ist das Problem deterministisch oder probabilistisch?
| Deterministisch | Probabilistisch | |
|---|---|---|
| Logik | Klar, stabil, dokumentierbar | Mehrdeutig, kontextabhaengig |
| Regeln | Endliche If-Then-Ketten | Zu viele Ausnahmen für Regeln |
| Ergebnis | Ein “richtiges” Ergebnis | Kein einzelnes “richtiges” Ergebnis |
| Beispiel | Steuerberechnung, Validierung | Sentiment-Analyse, Empfehlungen |
Wann Rule-Based reicht: Logik klar und stabil, Entscheidungen müssen auditierbar sein, Prozesse sind wiederholbar.
Wann AI/ML Sinn macht: Kein einzelnes “richtiges” Ergebnis, System verbessert sich mit mehr Daten, Regeln haben zu viele Ausnahmen.
Die Realität: Die meisten Enterprise-Probleme sind Hybride. Dein Login-Flow ist deterministisch. Deine Fraud Detection ist probabilistisch. Beides im selben Produkt.
Die “AI um der AI willen”-Falle
Abschnitt betitelt „Die “AI um der AI willen”-Falle“Die Zahlen sind ernuechternd:
- 64% der User würden Features deaktivieren oder Produkte verlassen, wenn AI-Features aufgezwungen werden (ZDNET/Aberdeen)
- Nur 5-30% der AI-Implementierungen liefern messbaren P&L-Impact — je nach Studie und Definition (MIT Sloan Management Review 2025, McKinsey Global AI Survey 2024)
- Nur 1 von 4 AI-Projekten liefert den versprochenen ROI, nur 16% skalieren unternehmensweit (IBM, 2025)
Das Problem ist selten die Technologie. Das Problem ist, dass kein klares User-Problem existierte, bevor jemand “AI” auf die Roadmap geschrieben hat.
Wenn AI spektakulaer scheitert
Abschnitt betitelt „Wenn AI spektakulaer scheitert“- Humane AI Pin & Rabbit R1: “A solution looking for a problem” (Logitech CEO). Hardware-Produkte ohne klaren Use Case.
- McDonald’s AI Drive-Thru (IBM): Nach 3 Jahren gestoppt. Virales TikTok-Video: 260 McNuggets bestellt, weil das System Hintergrundgeraeusche als Bestellungen interpretierte.
- United Healthcare: 90% Fehlerrate bei einem spezifischen Algorithmus (nH Predict) für Post-Acute-Care-Ablehnungen (STAT News Investigation).
- Google AI Overviews: “Put glue on pizza”-Empfehlungen. Deployment ohne ausreichende Error Tolerance Definition.
Framework
Abschnitt betitelt „Framework“5 Check-Fragen bevor Du AI auf die Roadmap setzt:
| # | Frage | Nein = Warnsignal |
|---|---|---|
| 1 | Ist das Problem probabilistisch? | Rule-Based Engine reicht vermutlich |
| 2 | Verbessert sich das System mit mehr Daten? | Statische Lösung ist effizienter |
| 3 | Gibt es genug qualitative Trainingsdaten? | Cold-Start-Problem, hohe Anfangsinvestition |
| 4 | Ist die Fehlertoleranz akzeptabel? | High-Stakes-Domain ohne Human Review = Risiko |
| 5 | Uebersteigt der erwartete Wert die AI-spezifischen Kosten? | Variable LLM-Kosten in Fixed Subscriptions = Unit-Economics-Problem |
Alle 5 mit Ja? AI ist ein valider Ansatz. Eine oder mehr mit Nein? Pruefe Alternativen, bevor Du AI commitest.
Scenario
Abschnitt betitelt „Scenario“Du bist PM bei einem B2B-SaaS für Rechnungsverarbeitung. Der VP Product will “AI-powered Invoice Processing” auf der Roadmap. Aktuell nutzt Ihr Template-basierte OCR mit festen Regeln.
Die Situation:
- 120.000 Rechnungen/Monat, 85% folgen 4 Standardformaten
- Aktuelle Rule-Based Accuracy: 94% für Standardformate, 45% für Sonderformate
- AI-Modell im Eval: 96% für Standard, 82% für Sonderformate
- AI-Kosten: $0.03 pro Rechnung (LLM-basiert) vs. $0.001 pro Rechnung (Rule-Based)
- 15% der Rechnungen (Sonderformate) verursachen 60% des manuellen Aufwands
Optionen:
- Alles auf AI umstellen: 96%/82% Accuracy, $3.600/Monat
- Alles Rule-Based lassen: 94%/45% Accuracy, $120/Monat
- Hybrid: Rule-Based für Standardformate, AI nur für Sonderformate
Wie wuerdest Du entscheiden?
Die beste Entscheidung: Option 3 — Hybrid.
Warum:
- Standardformate: Rule-Based liefert 94% bei 30x niedrigeren Kosten. Die 2% Verbesserung durch AI rechtfertigt nicht den 30-fachen Preisanstieg
- Sonderformate: AI verbessert von 45% auf 82% — das ist der echte Hebel. Diese 15% der Rechnungen verursachen 60% des manuellen Aufwands
- Hybrid-Kosten: ~$660/Monat (Rule-Based für 102k Standard + AI für 18k Sonder) statt $3.600
Die PM-Fehler in diesem Szenario:
- “Bolt-On AI”: AI draufschrauben ohne den Workflow neu zu denken. Rule-Based funktioniert für 85% der Faelle — warum ersetzen?
- Modelle als Strategie: Das Modell ist austauschbar. Dein Wettbewerbsvorteil liegt in der Daten-Pipeline und den Validierungsregeln.
- Unit Economics ignorieren: $0.03 pro Rechnung klingt billig — bis Du 120k Rechnungen/Monat durchrechnest.
Reflect
Abschnitt betitelt „Reflect“- AI ist eine Lösung, kein Feature. Starte beim Problem, nicht bei der Technologie. Wenn Du nicht erklären kannst welches User-Problem AI loest, hast Du keins.
- Die meisten Probleme sind Hybride. Deterministisch wo möglich, probabilistisch wo noetig. Das spart Kosten und reduziert Fehler.
- Fehlertoleranz vor Deployment definieren. McDonald’s, United Healthcare und Google haben gezeigt, was passiert, wenn man das nicht tut.
- Unit Economics durchrechnen. Variable LLM-Kosten in Fixed-Price-Subscriptions sind ein Geschaeftsmodell-Risiko, kein technisches Detail.
Quellen: ZDNET/Aberdeen Consumer AI Survey (2024), MIT Sloan “AI Implementation Strategies” (2025), IBM Global AI Adoption Index (2025), Logitech CEO Bracken Darrell on Humane/Rabbit (2024), McDonald’s/IBM Drive-Thru Pilot Post-Mortem (2024)