Zum Inhalt springen
EN DE

Compliance-Basics: Was du wissen musst

L4 Lektion 5 von 5 — AI als Coworker
1
2
3
4
5

In den vorherigen Lektionen hast du gelernt, AI-Agents zu nutzen und Vertrauen zu kalibrieren. Jetzt der Rahmen, der das Ganze einbettet: Der EU AI Act Die weltweit erste umfassende Verordnung zur Regulierung von Künstlicher Intelligenz (Verordnung (EU) 2024/1689). Stuft AI-Systeme nach Risiko ein und schreibt Transparenz, menschliche Kontrolle und Verantwortlichkeit vor. (Verordnung (EU) 2024/1689) ist seit August 2024 in Kraft — und betrifft jeden, der AI beruflich nutzt. Nicht erst irgendwann, sondern jetzt.

Diese Lektion gibt dir Awareness-Level-Wissen: Was du als Knowledge Worker wissen musst. Nicht Jura, sondern Orientierung.

Der AI Act wird phasenweise eingeführt. Zwei Punkte gelten bereits:

Dein Arbeitgeber ist gesetzlich verpflichtet sicherzustellen, dass du die AI-Systeme verstehst, die du nutzt. Das umfasst:

  • Grundwissen über Möglichkeiten und Risiken
  • Bewusstsein für mögliche Schäden
  • Fähigkeit, AI-Output kritisch einzuordnen
  • Angemessen für deine Rolle und deinen Kontext

Was das konkret heisst: “Lest einfach die Anleitung” reicht laut EU-Kommission nicht. Dein Unternehmen muss schulen und dokumentieren. Es gibt keine externe Zertifizierungspflicht — aber die Pflicht selbst ist real.

Fordere das ein, wenn dein Arbeitgeber AI-Tools bereitstellt, aber keine Schulung anbietet.

Bestimmte AI-Anwendungen sind komplett verboten:

  • Unterschwellige Manipulation (Beeinflussung ohne Bewusstsein)
  • Ausnutzung von Verletzlichkeiten (Alter, Behinderung)
  • Social Scoring durch Behörden
  • Emotionserkennung am Arbeitsplatz
  • Ungezielte Gesichtsbilder-Sammlung

Für die meisten Knowledge Worker nicht direkt relevant — aber gut zu wissen, wo die harte Grenze liegt.

SituationPflicht
AI interagiert mit einem MenschenOffenlegen, dass es AI ist
AI-generierte Texte zu öffentlichen ThemenAls AI-generiert kennzeichnen
Deep Fakes (Bild, Audio, Video)Als künstlich erzeugt markieren
AI-generierter Content allgemeinMaschinenlesbar als AI-generiert kennzeichnen

Für dich konkret: Wenn du einen AI-generierten Text veröffentlichst (Blog, Report, externe Kommunikation), muss das erkennbar sein. Intern im Unternehmen hängt es von der Unternehmenspolicy ab.

Strengere Auflagen für AI in sensiblen Bereichen: Personalwesen (CV-Screening, Leistungsbewertung), Bildung, Kreditvergabe, öffentliche Dienste. Wenn du AI in diesen Bereichen einsetzt, gelten besondere Anforderungen an Dokumentation, menschliche Aufsicht und Risikomanagement.

RolleWerVerantwortung
ProviderAnthropic, OpenAI, MicrosoftSicherheit und Konformität des AI-Systems
DeployerDein ArbeitgeberBestimmungsgemässer Einsatz, Schulung, Logging, Human Oversight
UserDuFachliche Verantwortung für Entscheidungen auf Basis von AI-Output

Wichtig: Du persönlich haftest in der Regel nicht direkt unter dem AI Act. Aber: Wenn du AI für Entscheidungen nutzt, die andere betreffen — Bewerberauswahl, Kundenkommunikation, Finanzempfehlungen — trägst du fachliche Verantwortung. “AI hat mir gesagt” ist keine Ausrede.

Der AI Act wurde verabschiedet, bevor agentic AI-Systeme wie Cowork oder Agent Mode breit verfügbar waren. Es gibt keine eigene Kategorie für “AI Agents”. Die Einstufung hängt vom konkreten Einsatz ab:

Was du tustRisikostufeAuflagen
AI fasst E-Mails zusammenMinimalKeine besonderen
AI erstellt PräsentationsentwürfeMinimalKeine besonderen
AI bewertet BewerbungenHochDokumentation, Human Oversight, Risikomanagement
AI trifft KreditentscheidungenHochVolle Compliance-Anforderungen

Die Faustregel: Je mehr Autonomie und je höher die Konsequenzen für andere Menschen, desto strenger die Auflagen.

Für Hochrisiko-Systeme muss gewährleistet sein:

  1. Verstehen: Du kannst die Fähigkeiten und Grenzen des AI-Systems nachvollziehen
  2. Überwachen: Du erkennst Anomalien und unerwartetes Verhalten
  3. Automation Bias erkennen: Du bist dir der Tendenz bewusst, AI blind zu vertrauen
  4. Interpretieren: Du kannst AI-Ergebnisse korrekt einordnen
  5. Ablehnen: Du kannst jederzeit entscheiden, den AI-Output nicht zu verwenden

Das ist im Grunde das, was du in Lektion 4 über Trust Calibration gelernt hast — jetzt mit rechtlichem Rahmen.

Für Hochrisiko-Systeme müssen Logs geführt werden — 6 Monate Aufbewahrung, nachvollziehbare Entscheidungen. Aber auch ausserhalb der Pflicht ist es klug, kritische AI-Nutzung zu dokumentieren:

  • Was: Wofür hast du AI eingesetzt?
  • Input: Was hast du der AI gegeben?
  • Output: Was hat sie geliefert?
  • Entscheidung: Was hast du mit dem Output gemacht?
  • Prüfung: Hast du das Ergebnis verifiziert?

Das ist kein Bürokratie-Overhead — es ist dein Nachweis, dass du verantwortungsvoll gearbeitet hast.

VerstossMaximale Strafe
Verbotene AI-Praktiken35 Mio. EUR oder 7% des globalen Jahresumsatzes
Hochrisiko-Auflagen15 Mio. EUR oder 3%
Falsche Informationen an Behörden7,5 Mio. EUR oder 1,5%

Die Strafen treffen primär Unternehmen, nicht einzelne Mitarbeitende. Aber sie zeigen, wie ernst die EU das Thema nimmt.

Do
  • Delegation bewusst steuern: Task Decomposition, Autonomie-Stufe, Prüftiefe
  • Das richtige Tool für die Aufgabe wählen: Desktop-Agent, Web-Agent oder manuell
  • Vertrauen kalibrieren: aufgabenspezifisch, evidenzbasiert, über Zeit
  • Verantwortung behalten: Dein Name steht unter dem Ergebnis, nicht der Name der AI
  • AI-Literacy ernst nehmen: Verstehen was das Tool kann, wo die Grenzen sind, wann du prüfen musst
Don't
  • AI blind vertrauen, weil der Output professionell klingt
  • Effizienz über Qualität stellen — Klarna hat gezeigt, wie das endet
  • AI für irreversible Entscheidungen mit hohen Konsequenzen autonom arbeiten lassen
  • Annehmen, dass 'AI hat mir gesagt' eine Begründung ist
  • Compliance ignorieren, weil 'das betrifft nur grosse Unternehmen' — AI-Literacy-Pflicht gilt seit Februar 2025

Bevor du deine AI-Fluency-Reise fortsetzt, solltest du diese Punkte mit “Ja” beantworten können:

  • Ich kann Aufgaben in delegierbare und nicht-delegierbare Teile zerlegen
  • Ich kenne die Stärken und Grenzen von Claude Cowork und ChatGPT Agent Mode
  • Ich kalibriere Vertrauen bewusst — aufgabenspezifisch, mit Prüfung
  • Ich weiss, was der EU AI Act für meine tägliche AI-Nutzung bedeutet
  • Ich dokumentiere kritische AI-Nutzung und behalte die fachliche Verantwortung

Du hast jetzt alle vier Level des AI Fluency Explorer-Pfades abgeschlossen:

  • L1: Erste Schritte — AI verstehen und ausprobieren
  • L2: Bewusst Prompten — Struktur, Techniken, Iteration
  • L3: Kontext als Infrastruktur — persistente Workspaces, System Prompt Design
  • L4: AI als Coworker — Delegation, Trust Calibration, Compliance

Das ist eine solide Basis. In zukünftigen Phasen folgen spezialisierte Pfade: Maker (AI in Workflows einbauen), Coworker (Teams mit AI organisieren) und Leader (AI-Strategie und Governance). Dein Fundament steht.

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn