Zum Inhalt springen
EN DE

Glossar

Begriffe, die dir in den Lektionen begegnen. Klicke auf einen unterstrichenen Begriff im Text, um hierher zu springen.

API-Aufrufe, die ein Custom GPT an externe Dienste senden kann — konfiguriert über eine OpenAPI-Spezifikation. Ermöglicht echte Tool-Integration, z.B. Daten abrufen oder Aktionen auslösen.

Begegnet dir in: L3 — Custom GPTs

AI-Systeme, die eigenständig mehrstufige Aufgaben ausführen können — sie planen Schritte, nutzen Werkzeuge und treffen Entscheidungen, ohne dass der Mensch jeden Schritt anweisen muss.

Begegnet dir in: L4 — Von Chat zu Delegation

Die Tendenz, automatisierten Systemen mehr zu vertrauen als dem eigenen Urteil — auch wenn Anzeichen dafür sprechen, dass das System falsch liegt. Der EU AI Act erkennt Automation Bias als explizites Risiko an.

Begegnet dir in: L4 — Vertrauen kalibrieren

Eine Technik, bei der die AI aufgefordert wird, ihren Denkweg Schritt für Schritt zu zeigen, bevor sie eine Antwort gibt. Verbessert die Genauigkeit bei komplexen Aufgaben.

Begegnet dir in: L2 — Prompting-Techniken

OpenAIs agentic Feature in ChatGPT, das einen visuellen Browser, Code-Ausführung, Dateibearbeitung und App-Integrationen kombiniert. Der Agent arbeitet in der Cloud und kann eigenständig mehrstufige Aufgaben im Web ausführen.

Begegnet dir in: L4 — ChatGPT Agent Mode

Anthropics Desktop-Agent-Feature in der Claude Desktop App. Cowork kann direkt auf lokale Dateien zugreifen, mehrstufige Aufgaben eigenständig bearbeiten, Dokumente erstellen und über Connectors mit externen Diensten interagieren.

Begegnet dir in: L4 — Claude Cowork

Persistente Workspaces in Claude.ai, die Knowledge Base (hochgeladene Dokumente), Custom Instructions und Chat-Verlauf an einem Ort bündeln. Jeder Chat innerhalb eines Projekts hat automatisch Zugriff auf den gesamten Projektkontext.

Begegnet dir in: L3 — Claude Projects

Integrationen, die Claude über das Model Context Protocol (MCP) mit externen Diensten verbinden — Gmail, Google Drive, Slack und andere. Claude kann Daten suchen und abrufen, ohne die Cowork-Oberfläche zu verlassen.

Begegnet dir in: L4 — Claude Cowork

Die maximale Menge an Text, die ein AI-Modell gleichzeitig verarbeiten kann — sein Kurzzeitgedächtnis. Alles innerhalb dieses Fensters beeinflusst die Antwort. Was nicht hineinpasst, kann die AI nicht sehen.

Begegnet dir in: L1 — Was ist AI?, L2, L3

Eine anpassbare Version von ChatGPT mit eigenen Anweisungen und Wissensdateien — ohne Programmierung erstellbar.

Begegnet dir in: L1 — Tool-Überblick

Spezialisierte Versionen von ChatGPT, die mit eigenen Instructions, Knowledge Files und optionalen API-Actions konfiguriert werden. Sie können privat genutzt, per Link geteilt oder im GPT Store veröffentlicht werden.

Begegnet dir in: L3 — Custom GPTs

Die weltweit erste umfassende Verordnung zur Regulierung von Künstlicher Intelligenz (Verordnung (EU) 2024/1689). Stuft AI-Systeme nach Risiko ein und schreibt Transparenz, menschliche Kontrolle und Verantwortlichkeit vor.

Begegnet dir in: L4 — Compliance-Basics

Eine Technik, bei der du der AI 2–5 Beispiele mit Input und Output zeigst, bevor du die eigentliche Aufgabe stellst. Besonders wirksam für Format und Stil.

Begegnet dir in: L2 — Prompting-Techniken

AI-Systeme, die neue Inhalte erzeugen können — Text, Bilder, Code, Musik — statt nur existierende Informationen zu suchen oder zu klassifizieren.

Begegnet dir in: L1 — Was ist AI?, L1 — Do’s und Don’ts

Eine AI-Antwort, die falsch oder erfunden ist, aber selbstsicher und überzeugend klingt. Kein seltener Fehler, sondern ein systemisches Merkmal — AI optimiert auf Plausibilität, nicht auf Wahrheit.

Begegnet dir in: L1 — Erste Gespräche, L1 — Grenzen verstehen

Das Prinzip, dass ein Mensch in den Entscheidungsprozess eines AI-Systems eingebunden bleibt — sei es als Genehmiger, Aufseher oder finale Entscheidungsinstanz. Der EU AI Act schreibt dies für Hochrisiko-AI-Systeme vor.

Begegnet dir in: L4 — Compliance-Basics

Das Datum, bis zu dem die Trainingsdaten eines AI-Modells reichen. Ereignisse danach kennt das Modell nicht aus eigenem Wissen.

Begegnet dir in: L1 — Grenzen verstehen

Large Language Model — ein neuronales Netz, das auf grossen Textmengen trainiert wurde und Text generieren kann. Die Basis hinter ChatGPT, Claude, Gemini und anderen AI-Chatbots.

Begegnet dir in: L1 — Was ist AI?, L1 — Tool-Überblick

Ein AI-Assistent, der direkt in Microsoft 365 Apps (Word, Excel, PowerPoint, Outlook, Teams) integriert ist und auf organisationale Daten über den Microsoft Graph zugreift.

Begegnet dir in: L3 — M365 Copilot

Microsofts Datenschicht, die Informationen aus allen Microsoft 365 Diensten verbindet — E-Mails, Kalender, Dateien, Teams-Chats, SharePoint-Dokumente. Copilot nutzt den Graph, um Antworten im Arbeitskontext zu verankern.

Begegnet dir in: L3 — M365 Copilot

Informationen, die über eine einzelne Konversation hinaus bestehen bleiben — Rollen, Regeln, Wissen, Präferenzen — und automatisch in jedes neue Gespräch einfliessen.

Begegnet dir in: L3 — Persistenter Kontext

Die Eingabe, die du an ein AI-Modell sendest — deine Frage, Anweisung oder Aufgabe. Je präziser der Prompt, desto besser das Ergebnis.

Begegnet dir in: L1, L2, L3

Retrieval Augmented Generation — eine Technik, bei der das AI-Modell relevante Informationen aus einer Wissensbasis abruft, bevor es antwortet. Das erweitert die Kapazität über das Context Window hinaus.

Begegnet dir in: L3 — Claude Projects

Eine Technik, bei der du der AI eine bestimmte Rolle oder Expertise zuweist, um die Qualität und Perspektive der Antwort zu steuern.

Begegnet dir in: L2 — Prompt-Anatomie

Eine versteckte Anweisung, die das Verhalten der AI für die gesamte Konversation festlegt — sie wird vor dem eigentlichen Gespräch gesetzt und ist in der Regel nicht sichtbar.

Begegnet dir in: L2 — Prompt-Anatomie, L3 — System Prompt Design

Die kleinsten Texteinheiten, die ein AI-Modell verarbeitet — meistens ein Wort oder ein Wortteil. Ein typischer deutscher Satz hat 15–25 Token.

Begegnet dir in: L1 — Was ist AI?

Die sichtbare Eingabe, die du direkt an die AI sendest — deine Frage, Aufgabe oder Anweisung im Chat. Im Gegensatz zum System Prompt ist der User Prompt für dich sichtbar und steuerbar.

Begegnet dir in: L2 — Prompt-Anatomie

Eine Anweisung an die AI ohne Beispiele — die AI nutzt ausschliesslich ihr Vorwissen, um die Aufgabe zu lösen. Die einfachste Form des Promptens.

Begegnet dir in: L2 — Prompting-Techniken

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn