Level 2 Complete
Level 2 abgeschlossen! Du verstehst jetzt die Mechanik hinter LLM-Kosten und weisst, wie Du sie kontrollierst. In der Boss Fight hast Du alle vier Bausteine zu einem Token-Budget-Rechner kombiniert — das ist echtes Production-Wissen.
Was Du Gelernt Hast
Abschnitt betitelt „Was Du Gelernt Hast“- Tokens: LLMs lesen keinen Text — sie arbeiten mit Subword Units (Token IDs). 1 Token ≈ 4 Zeichen (EN) / 3 Zeichen (DE). Verschiedene Sprachen und Textarten verbrauchen unterschiedlich viele Tokens.
- Usage Tracking: Jeder
generateText-Call liefertresult.usagemitpromptTokens,completionTokensundtotalTokens. Kosten berechnen: Tokens / 1M * Preis. Output-Tokens sind 3-5x teurer als Input-Tokens. - Context Window: Alles was zum LLM geht — System Prompt, Messages, Tool-Definitionen UND Platz für Output — muss ins Context Window passen. Bei Ueberschreitung: Fehler oder stille Truncation. Strategien: Message-Truncation, Token-Budget, Summarization.
- Prompt Caching: Identische Prompt-Prefixe werden nach dem ersten Request aus dem Cache gelesen — bei Anthropic zu 10% der normalen Input-Kosten. Cache-Hit-Rate tracken für Kostenoptimierung.
Aktualisierter Skill Tree
Abschnitt betitelt „Aktualisierter Skill Tree“Naechstes Level
Abschnitt betitelt „Naechstes Level“Level 3: Agents & MCP — Vom passiven Text-Generator zum aktiven Agenten. Du lernst, wie LLMs Tools aufrufen, wie der Tool-Call-Loop funktioniert und wie Du mit dem Model Context Protocol (MCP) externe Dienste anbindest. Dein LLM kann dann nicht nur antworten, sondern handeln.