Zum Inhalt springen
EN DE

Vertrauen kalibrieren

L4 Lektion 4 von 5 — AI als Coworker
1
2
3
4
5

Du delegierst eine Aufgabe an die AI. Sie liefert ein Ergebnis. Jetzt die Frage: Stimmt das?

Blindes Vertrauen ist gefährlich. Alles manuell prüfen macht Delegation sinnlos. Die Lösung liegt dazwischen — und genau dieses Dazwischen zu finden, ist die Kernkompetenz von L4.

Die Zahlen sind deutlich:

  • 47% der Enterprise-AI-Nutzer haben mindestens eine wichtige Geschäftsentscheidung auf Basis halluzinierter Inhalte getroffen (Deloitte Global AI Survey, 2025)
  • Die Harvard/BCG-Studie zeigte: Bei Aufgaben ausserhalb der AI-Stärken sank die Qualität — weil Berater dem Output vertrauten, ohne zu prüfen
  • Air Canada wurde haftbar gemacht, weil ihr Chatbot einem Kunden falsche Informationen über Erstattungen gab

Das Problem ist nicht, dass AI halluziniert. Das Problem ist, dass Menschen dem Output unkritisch folgen. Der EU AI Act nennt das explizit: Automation Bias Die Tendenz, automatisierten Systemen mehr zu vertrauen als dem eigenen Urteil — auch wenn Anzeichen dafür sprechen, dass das System falsch liegt. Der EU AI Act erkennt Automation Bias als explizites Risiko an. — die Tendenz, maschinellen Ergebnissen mehr zu glauben als dem eigenen Urteil.

Stell dir vor, du delegierst nicht an “die AI”, sondern an eine neue Mitarbeiterin. Wie viel Kontrolle gibst du? Das hängt ab von ihrer Erfahrung — und von der Aufgabe.

Trust LevelAnalogieWas die AI darfWie du prüfst
InternErster TagBeobachten, lesen, zusammenfassenAlles prüfen
Junior3 Monate dabeiVorschläge machen, Entwürfe erstellenJedes Ergebnis reviewen
SeniorBewährtEigenständig ausführen mit MonitoringStichproben, Ergebnischeck
ExpertVolles VertrauenAutonom arbeitenNur bei Auffälligkeiten

Schritt 1: Starte jede neue Aufgabe auf “Intern”-Level. Auch wenn das Tool grundsätzlich fähig ist.

Schritt 2: Beobachte die Qualität über 5–10 Durchläufe. Notiere: Wo stimmt es? Wo nicht?

Schritt 3: Wenn die Qualität konsistent ist, stufe hoch. Wenn nicht, bleib auf dem aktuellen Level oder passe den Prompt an.

Schritt 4: Bei jeder neuen Aufgabenart: Zurück auf “Intern”. Vertrauen ist aufgabenspezifisch, nicht pauschal.

Ob du ein AI-Ergebnis prüfen musst, hängt von zwei Fragen ab:

VerifizierbarkeitBeispielPrüfaufwand
Leicht prüfbarFormatierung, Zusammenfassung, DatenextraktionSekunden
Prüfbar mit AufwandFaktenaussagen, Berechnungen, QuellenangabenMinuten
Schwer prüfbarStrategische Empfehlungen, Kausalaussagen, PrognosenEigene Expertise nötig
ReversibilitätBeispielRisiko
Leicht rückgängigInterner Entwurf, Notizen, BrainstormingNiedrig
Aufwändig rückgängigVersendete E-Mail, publizierter BerichtMittel
IrreversibelVertragliche Zusage, Finanztransaktion, KündigungHoch
Leicht verifizierbarSchwer verifizierbar
ReversibelDelegieren, Stichprobe reichtDelegieren, aber reviewen
IrreversibelDelegieren, vollständig prüfenNicht delegieren — selbst machen
  • Output ist konsistent über mehrere Anfragen
  • Aussagen sind mit Quellen belegt
  • AI kennzeichnet Unsicherheit (“Ich bin nicht sicher, aber…”)
  • Format und Struktur passen zum Auftrag
  • Faktencheck der ersten 3 Aussagen bestätigt Korrektheit
  • Übermässig selbstsichere Sprache bei komplexen Themen
  • Konkrete Zahlen ohne Quellenangabe
  • Output passt “zu perfekt” — klingt gut, aber substanzlos
  • Widersprüche innerhalb desselben Outputs
  • Behauptungen, die du nicht mit einer schnellen Suche bestätigen kannst

Klarnas AI-Assistent übernahm die Arbeit von 700 Vollzeit-Mitarbeitern und automatisierte zwei Drittel aller Kundenservice-Chats. Die Effizienzmetriken sahen grossartig aus: 82% schneller, 75% der Anfragen automatisiert. Aber die Qualität sank — generische Antworten, steigende Beschwerden. Der CEO revidierte öffentlich und stellte wieder menschliche Mitarbeiter ein.

Lektion: Effizienzmetriken können Qualitätsverlust maskieren. Miss beides.

Mehrere Anwälte reichten Schriftsätze mit AI-generierten Zitaten ein — Fälle und Zitate, die nicht existierten. ChatGPT hatte sie erfunden, und die Anwälte hatten nicht geprüft.

Lektion: AI kann faktenähnliche Inhalte generieren, die komplett frei erfunden sind. Bei Faktenaussagen: immer prüfen.

Ein Chatbot gab einem Kunden falsche Erstattungsinformationen. Air Canada argumentierte, der Chatbot sei “eine separate rechtliche Einheit”. Das Gericht: Nein — das Unternehmen haftet für alle Informationen, die seine AI-Tools liefern.

Lektion: Du bist verantwortlich für das, was AI in deinem Namen kommuniziert.

Do
  • Jede neue Aufgabenart auf 'Intern'-Level starten und systematisch hochstufen
  • Vor Delegation fragen: Ist das Ergebnis verifizierbar? Ist ein Fehler reversibel?
  • Stichproben bei Faktenaussagen — die ersten 3 Punkte checken
  • Effizienz UND Qualität messen, nicht nur eins von beiden
  • Bei Unsicherheit: AI als Entwurf nutzen, nicht als Endprodukt
Don't
  • AI-Ergebnisse ungeprüft übernehmen, weil sie professionell klingen
  • Blindes Vertrauen aufbauen, weil es bei einer Aufgabenart funktioniert hat
  • Alle AI-Ergebnisse gleich behandeln — Trust Level hängt von der Aufgabe ab
  • Zahlen, Zitate oder Faktenbehauptungen ohne Gegenprüfung verwenden
  • Verantwortung an die AI abgeben — dein Name steht unter dem Ergebnis

Führe eine Woche lang ein Trust-Log: Bei jeder AI-Nutzung notierst du Aufgabe, Trust Level (Intern bis Expert), ob du geprüft hast, und ob die Prüfung etwas Problematisches ergeben hat. Am Ende der Woche: Muster erkennen.

Nimm 5 Aufgaben, die du regelmässig an AI delegierst. Ordne jede auf den zwei Achsen ein: Wie leicht verifizierbar? Wie reversibel bei Fehler? Passt dein aktuelles Prüfverhalten zur Matrix?

Gib der AI eine Aufgabe, bei der du die richtige Antwort kennst. Prüfe: Wo sind Grüne Flaggen? Wo Rote? Wie sicher klingt die AI — und stimmt das Ergebnis tatsächlich?

Trust Calibration ist keine einmalige Entscheidung — es ist eine laufende Praxis. Wie bei einer menschlichen Kollegin baust du Vertrauen über Zeit auf, aufgabenspezifisch und evidenzbasiert. Die besten AI-Nutzer sind nicht die, die am meisten vertrauen oder am wenigsten — sondern die, die am präzisesten kalibriert sind.

In der nächsten Lektion geht es um den rechtlichen Rahmen: Compliance-Basics — was der EU AI Act für dich als Knowledge Worker bedeutet und warum “AI hat mir gesagt” keine Ausrede ist.

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn