Compliance-Basics: Was du wissen musst
Warum das jetzt relevant wird
Abschnitt betitelt „Warum das jetzt relevant wird“In den vorherigen Lektionen hast du gelernt, AI-Agents zu nutzen und Vertrauen zu kalibrieren. Jetzt der Rahmen, der das Ganze einbettet: Der EU AI Act Die weltweit erste umfassende Verordnung zur Regulierung von Künstlicher Intelligenz (Verordnung (EU) 2024/1689). Stuft AI-Systeme nach Risiko ein und schreibt Transparenz, menschliche Kontrolle und Verantwortlichkeit vor. (Verordnung (EU) 2024/1689) ist seit August 2024 in Kraft — und betrifft jeden, der AI beruflich nutzt. Nicht erst irgendwann, sondern jetzt.
Diese Lektion gibt dir Awareness-Level-Wissen: Was du als Knowledge Worker wissen musst. Nicht Jura, sondern Orientierung.
Was bereits gilt (Stand März 2026)
Abschnitt betitelt „Was bereits gilt (Stand März 2026)“Der AI Act wird phasenweise eingeführt. Zwei Punkte gelten bereits:
1. AI-Literacy-Pflicht (Artikel 4, seit Februar 2025)
Abschnitt betitelt „1. AI-Literacy-Pflicht (Artikel 4, seit Februar 2025)“Dein Arbeitgeber ist gesetzlich verpflichtet sicherzustellen, dass du die AI-Systeme verstehst, die du nutzt. Das umfasst:
- Grundwissen über Möglichkeiten und Risiken
- Bewusstsein für mögliche Schäden
- Fähigkeit, AI-Output kritisch einzuordnen
- Angemessen für deine Rolle und deinen Kontext
Was das konkret heisst: “Lest einfach die Anleitung” reicht laut EU-Kommission nicht. Dein Unternehmen muss schulen und dokumentieren. Es gibt keine externe Zertifizierungspflicht — aber die Pflicht selbst ist real.
Fordere das ein, wenn dein Arbeitgeber AI-Tools bereitstellt, aber keine Schulung anbietet.
2. Verbotene AI-Praktiken (Artikel 5, seit Februar 2025)
Abschnitt betitelt „2. Verbotene AI-Praktiken (Artikel 5, seit Februar 2025)“Bestimmte AI-Anwendungen sind komplett verboten:
- Unterschwellige Manipulation (Beeinflussung ohne Bewusstsein)
- Ausnutzung von Verletzlichkeiten (Alter, Behinderung)
- Social Scoring durch Behörden
- Emotionserkennung am Arbeitsplatz
- Ungezielte Gesichtsbilder-Sammlung
Für die meisten Knowledge Worker nicht direkt relevant — aber gut zu wissen, wo die harte Grenze liegt.
Was ab August 2026 kommt
Abschnitt betitelt „Was ab August 2026 kommt“Transparenzpflichten
Abschnitt betitelt „Transparenzpflichten“| Situation | Pflicht |
|---|---|
| AI interagiert mit einem Menschen | Offenlegen, dass es AI ist |
| AI-generierte Texte zu öffentlichen Themen | Als AI-generiert kennzeichnen |
| Deep Fakes (Bild, Audio, Video) | Als künstlich erzeugt markieren |
| AI-generierter Content allgemein | Maschinenlesbar als AI-generiert kennzeichnen |
Für dich konkret: Wenn du einen AI-generierten Text veröffentlichst (Blog, Report, externe Kommunikation), muss das erkennbar sein. Intern im Unternehmen hängt es von der Unternehmenspolicy ab.
Hochrisiko-Regeln
Abschnitt betitelt „Hochrisiko-Regeln“Strengere Auflagen für AI in sensiblen Bereichen: Personalwesen (CV-Screening, Leistungsbewertung), Bildung, Kreditvergabe, öffentliche Dienste. Wenn du AI in diesen Bereichen einsetzt, gelten besondere Anforderungen an Dokumentation, menschliche Aufsicht und Risikomanagement.
Drei Rollen, drei Verantwortungen
Abschnitt betitelt „Drei Rollen, drei Verantwortungen“| Rolle | Wer | Verantwortung |
|---|---|---|
| Provider | Anthropic, OpenAI, Microsoft | Sicherheit und Konformität des AI-Systems |
| Deployer | Dein Arbeitgeber | Bestimmungsgemässer Einsatz, Schulung, Logging, Human Oversight |
| User | Du | Fachliche Verantwortung für Entscheidungen auf Basis von AI-Output |
Wichtig: Du persönlich haftest in der Regel nicht direkt unter dem AI Act. Aber: Wenn du AI für Entscheidungen nutzt, die andere betreffen — Bewerberauswahl, Kundenkommunikation, Finanzempfehlungen — trägst du fachliche Verantwortung. “AI hat mir gesagt” ist keine Ausrede.
Wo stehen AI-Agents?
Abschnitt betitelt „Wo stehen AI-Agents?“Der AI Act wurde verabschiedet, bevor agentic AI-Systeme wie Cowork oder Agent Mode breit verfügbar waren. Es gibt keine eigene Kategorie für “AI Agents”. Die Einstufung hängt vom konkreten Einsatz ab:
| Was du tust | Risikostufe | Auflagen |
|---|---|---|
| AI fasst E-Mails zusammen | Minimal | Keine besonderen |
| AI erstellt Präsentationsentwürfe | Minimal | Keine besonderen |
| AI bewertet Bewerbungen | Hoch | Dokumentation, Human Oversight, Risikomanagement |
| AI trifft Kreditentscheidungen | Hoch | Volle Compliance-Anforderungen |
Die Faustregel: Je mehr Autonomie und je höher die Konsequenzen für andere Menschen, desto strenger die Auflagen.
Human-in-the-Loop Das Prinzip, dass ein Mensch in den Entscheidungsprozess eines AI-Systems eingebunden bleibt — sei es als Genehmiger, Aufseher oder finale Entscheidungsinstanz. Der EU AI Act schreibt dies für Hochrisiko-AI-Systeme vor. : Was das Gesetz verlangt
Abschnitt betitelt „: Was das Gesetz verlangt“Für Hochrisiko-Systeme muss gewährleistet sein:
- Verstehen: Du kannst die Fähigkeiten und Grenzen des AI-Systems nachvollziehen
- Überwachen: Du erkennst Anomalien und unerwartetes Verhalten
- Automation Bias erkennen: Du bist dir der Tendenz bewusst, AI blind zu vertrauen
- Interpretieren: Du kannst AI-Ergebnisse korrekt einordnen
- Ablehnen: Du kannst jederzeit entscheiden, den AI-Output nicht zu verwenden
Das ist im Grunde das, was du in Lektion 4 über Trust Calibration gelernt hast — jetzt mit rechtlichem Rahmen.
Audit Trail: Dokumentiere deine AI-Nutzung
Abschnitt betitelt „Audit Trail: Dokumentiere deine AI-Nutzung“Für Hochrisiko-Systeme müssen Logs geführt werden — 6 Monate Aufbewahrung, nachvollziehbare Entscheidungen. Aber auch ausserhalb der Pflicht ist es klug, kritische AI-Nutzung zu dokumentieren:
- Was: Wofür hast du AI eingesetzt?
- Input: Was hast du der AI gegeben?
- Output: Was hat sie geliefert?
- Entscheidung: Was hast du mit dem Output gemacht?
- Prüfung: Hast du das Ergebnis verifiziert?
Das ist kein Bürokratie-Overhead — es ist dein Nachweis, dass du verantwortungsvoll gearbeitet hast.
Strafen
Abschnitt betitelt „Strafen“| Verstoss | Maximale Strafe |
|---|---|
| Verbotene AI-Praktiken | 35 Mio. EUR oder 7% des globalen Jahresumsatzes |
| Hochrisiko-Auflagen | 15 Mio. EUR oder 3% |
| Falsche Informationen an Behörden | 7,5 Mio. EUR oder 1,5% |
Die Strafen treffen primär Unternehmen, nicht einzelne Mitarbeitende. Aber sie zeigen, wie ernst die EU das Thema nimmt.
L4-Zusammenfassung
Abschnitt betitelt „L4-Zusammenfassung“- Delegation bewusst steuern: Task Decomposition, Autonomie-Stufe, Prüftiefe
- Das richtige Tool für die Aufgabe wählen: Desktop-Agent, Web-Agent oder manuell
- Vertrauen kalibrieren: aufgabenspezifisch, evidenzbasiert, über Zeit
- Verantwortung behalten: Dein Name steht unter dem Ergebnis, nicht der Name der AI
- AI-Literacy ernst nehmen: Verstehen was das Tool kann, wo die Grenzen sind, wann du prüfen musst
- AI blind vertrauen, weil der Output professionell klingt
- Effizienz über Qualität stellen — Klarna hat gezeigt, wie das endet
- AI für irreversible Entscheidungen mit hohen Konsequenzen autonom arbeiten lassen
- Annehmen, dass 'AI hat mir gesagt' eine Begründung ist
- Compliance ignorieren, weil 'das betrifft nur grosse Unternehmen' — AI-Literacy-Pflicht gilt seit Februar 2025
Deine L4-Checkliste
Abschnitt betitelt „Deine L4-Checkliste“Bevor du deine AI-Fluency-Reise fortsetzt, solltest du diese Punkte mit “Ja” beantworten können:
- Ich kann Aufgaben in delegierbare und nicht-delegierbare Teile zerlegen
- Ich kenne die Stärken und Grenzen von Claude Cowork und ChatGPT Agent Mode
- Ich kalibriere Vertrauen bewusst — aufgabenspezifisch, mit Prüfung
- Ich weiss, was der EU AI Act für meine tägliche AI-Nutzung bedeutet
- Ich dokumentiere kritische AI-Nutzung und behalte die fachliche Verantwortung
Wie geht es weiter?
Abschnitt betitelt „Wie geht es weiter?“Du hast jetzt alle vier Level des AI Fluency Explorer-Pfades abgeschlossen:
- L1: Erste Schritte — AI verstehen und ausprobieren
- L2: Bewusst Prompten — Struktur, Techniken, Iteration
- L3: Kontext als Infrastruktur — persistente Workspaces, System Prompt Design
- L4: AI als Coworker — Delegation, Trust Calibration, Compliance
Das ist eine solide Basis. In zukünftigen Phasen folgen spezialisierte Pfade: Maker (AI in Workflows einbauen), Coworker (Teams mit AI organisieren) und Leader (AI-Strategie und Governance). Dein Fundament steht.
Quellen & Weiterlesen
Abschnitt betitelt „Quellen & Weiterlesen“- Verordnung (EU) 2024/1689 — EU AI Act (Volltext) — Offizieller Gesetzestext auf EUR-Lex
- Artikel 4: AI Literacy — Schulungspflicht für Anbieter und Betreiber
- Artikel 5: Verbotene AI-Praktiken — Acht Kategorien verbotener AI-Systeme
- Europäische Kommission: AI Act Fact Sheet — Überblick und Zeitplan