Glossar
Begriffe, die dir in den Lektionen begegnen. Klicke auf einen unterstrichenen Begriff im Text, um hierher zu springen.
Actions
Abschnitt betitelt „Actions“API-Aufrufe, die ein Custom GPT an externe Dienste senden kann — konfiguriert über eine OpenAPI-Spezifikation. Ermöglicht echte Tool-Integration, z.B. Daten abrufen oder Aktionen auslösen.
Begegnet dir in: L3 — Custom GPTs
Agentic AI
Abschnitt betitelt „Agentic AI“AI-Systeme, die eigenständig mehrstufige Aufgaben ausführen können — sie planen Schritte, nutzen Werkzeuge und treffen Entscheidungen, ohne dass der Mensch jeden Schritt anweisen muss.
Begegnet dir in: L4 — Von Chat zu Delegation
Automation Bias
Abschnitt betitelt „Automation Bias“Die Tendenz, automatisierten Systemen mehr zu vertrauen als dem eigenen Urteil — auch wenn Anzeichen dafür sprechen, dass das System falsch liegt. Der EU AI Act erkennt Automation Bias als explizites Risiko an.
Begegnet dir in: L4 — Vertrauen kalibrieren
Chain-of-Thought
Abschnitt betitelt „Chain-of-Thought“Eine Technik, bei der die AI aufgefordert wird, ihren Denkweg Schritt für Schritt zu zeigen, bevor sie eine Antwort gibt. Verbessert die Genauigkeit bei komplexen Aufgaben.
Begegnet dir in: L2 — Prompting-Techniken
ChatGPT Agent Mode
Abschnitt betitelt „ChatGPT Agent Mode“OpenAIs agentic Feature in ChatGPT, das einen visuellen Browser, Code-Ausführung, Dateibearbeitung und App-Integrationen kombiniert. Der Agent arbeitet in der Cloud und kann eigenständig mehrstufige Aufgaben im Web ausführen.
Begegnet dir in: L4 — ChatGPT Agent Mode
Claude Cowork
Abschnitt betitelt „Claude Cowork“Anthropics Desktop-Agent-Feature in der Claude Desktop App. Cowork kann direkt auf lokale Dateien zugreifen, mehrstufige Aufgaben eigenständig bearbeiten, Dokumente erstellen und über Connectors mit externen Diensten interagieren.
Begegnet dir in: L4 — Claude Cowork
Claude Projects
Abschnitt betitelt „Claude Projects“Persistente Workspaces in Claude.ai, die Knowledge Base (hochgeladene Dokumente), Custom Instructions und Chat-Verlauf an einem Ort bündeln. Jeder Chat innerhalb eines Projekts hat automatisch Zugriff auf den gesamten Projektkontext.
Begegnet dir in: L3 — Claude Projects
Connectors
Abschnitt betitelt „Connectors“Integrationen, die Claude über das Model Context Protocol (MCP) mit externen Diensten verbinden — Gmail, Google Drive, Slack und andere. Claude kann Daten suchen und abrufen, ohne die Cowork-Oberfläche zu verlassen.
Begegnet dir in: L4 — Claude Cowork
Context Window
Abschnitt betitelt „Context Window“Die maximale Menge an Text, die ein AI-Modell gleichzeitig verarbeiten kann — sein Kurzzeitgedächtnis. Alles innerhalb dieses Fensters beeinflusst die Antwort. Was nicht hineinpasst, kann die AI nicht sehen.
Begegnet dir in: L1 — Was ist AI?, L2, L3
Custom GPT
Abschnitt betitelt „Custom GPT“Eine anpassbare Version von ChatGPT mit eigenen Anweisungen und Wissensdateien — ohne Programmierung erstellbar.
Begegnet dir in: L1 — Tool-Überblick
Custom GPTs
Abschnitt betitelt „Custom GPTs“Spezialisierte Versionen von ChatGPT, die mit eigenen Instructions, Knowledge Files und optionalen API-Actions konfiguriert werden. Sie können privat genutzt, per Link geteilt oder im GPT Store veröffentlicht werden.
Begegnet dir in: L3 — Custom GPTs
EU AI Act
Abschnitt betitelt „EU AI Act“Die weltweit erste umfassende Verordnung zur Regulierung von Künstlicher Intelligenz (Verordnung (EU) 2024/1689). Stuft AI-Systeme nach Risiko ein und schreibt Transparenz, menschliche Kontrolle und Verantwortlichkeit vor.
Begegnet dir in: L4 — Compliance-Basics
Few-Shot
Abschnitt betitelt „Few-Shot“Eine Technik, bei der du der AI 2–5 Beispiele mit Input und Output zeigst, bevor du die eigentliche Aufgabe stellst. Besonders wirksam für Format und Stil.
Begegnet dir in: L2 — Prompting-Techniken
Generative AI
Abschnitt betitelt „Generative AI“AI-Systeme, die neue Inhalte erzeugen können — Text, Bilder, Code, Musik — statt nur existierende Informationen zu suchen oder zu klassifizieren.
Begegnet dir in: L1 — Was ist AI?, L1 — Do’s und Don’ts
Halluzination
Abschnitt betitelt „Halluzination“Eine AI-Antwort, die falsch oder erfunden ist, aber selbstsicher und überzeugend klingt. Kein seltener Fehler, sondern ein systemisches Merkmal — AI optimiert auf Plausibilität, nicht auf Wahrheit.
Begegnet dir in: L1 — Erste Gespräche, L1 — Grenzen verstehen
Human-in-the-Loop
Abschnitt betitelt „Human-in-the-Loop“Das Prinzip, dass ein Mensch in den Entscheidungsprozess eines AI-Systems eingebunden bleibt — sei es als Genehmiger, Aufseher oder finale Entscheidungsinstanz. Der EU AI Act schreibt dies für Hochrisiko-AI-Systeme vor.
Begegnet dir in: L4 — Compliance-Basics
Knowledge Cutoff
Abschnitt betitelt „Knowledge Cutoff“Das Datum, bis zu dem die Trainingsdaten eines AI-Modells reichen. Ereignisse danach kennt das Modell nicht aus eigenem Wissen.
Begegnet dir in: L1 — Grenzen verstehen
Large Language Model — ein neuronales Netz, das auf grossen Textmengen trainiert wurde und Text generieren kann. Die Basis hinter ChatGPT, Claude, Gemini und anderen AI-Chatbots.
Begegnet dir in: L1 — Was ist AI?, L1 — Tool-Überblick
Microsoft 365 Copilot
Abschnitt betitelt „Microsoft 365 Copilot“Ein AI-Assistent, der direkt in Microsoft 365 Apps (Word, Excel, PowerPoint, Outlook, Teams) integriert ist und auf organisationale Daten über den Microsoft Graph zugreift.
Begegnet dir in: L3 — M365 Copilot
Microsoft Graph
Abschnitt betitelt „Microsoft Graph“Microsofts Datenschicht, die Informationen aus allen Microsoft 365 Diensten verbindet — E-Mails, Kalender, Dateien, Teams-Chats, SharePoint-Dokumente. Copilot nutzt den Graph, um Antworten im Arbeitskontext zu verankern.
Begegnet dir in: L3 — M365 Copilot
Persistenter Kontext
Abschnitt betitelt „Persistenter Kontext“Informationen, die über eine einzelne Konversation hinaus bestehen bleiben — Rollen, Regeln, Wissen, Präferenzen — und automatisch in jedes neue Gespräch einfliessen.
Begegnet dir in: L3 — Persistenter Kontext
Die Eingabe, die du an ein AI-Modell sendest — deine Frage, Anweisung oder Aufgabe. Je präziser der Prompt, desto besser das Ergebnis.
Retrieval Augmented Generation — eine Technik, bei der das AI-Modell relevante Informationen aus einer Wissensbasis abruft, bevor es antwortet. Das erweitert die Kapazität über das Context Window hinaus.
Begegnet dir in: L3 — Claude Projects
Role Prompting
Abschnitt betitelt „Role Prompting“Eine Technik, bei der du der AI eine bestimmte Rolle oder Expertise zuweist, um die Qualität und Perspektive der Antwort zu steuern.
Begegnet dir in: L2 — Prompt-Anatomie
System Prompt
Abschnitt betitelt „System Prompt“Eine versteckte Anweisung, die das Verhalten der AI für die gesamte Konversation festlegt — sie wird vor dem eigentlichen Gespräch gesetzt und ist in der Regel nicht sichtbar.
Begegnet dir in: L2 — Prompt-Anatomie, L3 — System Prompt Design
Die kleinsten Texteinheiten, die ein AI-Modell verarbeitet — meistens ein Wort oder ein Wortteil. Ein typischer deutscher Satz hat 15–25 Token.
Begegnet dir in: L1 — Was ist AI?
User Prompt
Abschnitt betitelt „User Prompt“Die sichtbare Eingabe, die du direkt an die AI sendest — deine Frage, Aufgabe oder Anweisung im Chat. Im Gegensatz zum System Prompt ist der User Prompt für dich sichtbar und steuerbar.
Begegnet dir in: L2 — Prompt-Anatomie
Zero-Shot
Abschnitt betitelt „Zero-Shot“Eine Anweisung an die AI ohne Beispiele — die AI nutzt ausschliesslich ihr Vorwissen, um die Aufgabe zu lösen. Die einfachste Form des Promptens.
Begegnet dir in: L2 — Prompting-Techniken