Zum Inhalt springen
EN DE

Level 2 Complete

Level 2 abgeschlossen! Du verstehst jetzt die Mechanik hinter LLM-Kosten und weisst, wie Du sie kontrollierst. In der Boss Fight hast Du alle vier Bausteine zu einem Token-Budget-Rechner kombiniert — das ist echtes Production-Wissen.

  • Tokens: LLMs lesen keinen Text — sie arbeiten mit Subword Units (Token IDs). 1 Token ≈ 4 Zeichen (EN) / 3 Zeichen (DE). Verschiedene Sprachen und Textarten verbrauchen unterschiedlich viele Tokens.
  • Usage Tracking: Jeder generateText-Call liefert result.usage mit promptTokens, completionTokens und totalTokens. Kosten berechnen: Tokens / 1M * Preis. Output-Tokens sind 3-5x teurer als Input-Tokens.
  • Context Window: Alles was zum LLM geht — System Prompt, Messages, Tool-Definitionen UND Platz für Output — muss ins Context Window passen. Bei Ueberschreitung: Fehler oder stille Truncation. Strategien: Message-Truncation, Token-Budget, Summarization.
  • Prompt Caching: Identische Prompt-Prefixe werden nach dem ersten Request aus dem Cache gelesen — bei Anthropic zu 10% der normalen Input-Kosten. Cache-Hit-Rate tracken für Kostenoptimierung.
Skill Tree — Level 2 LLM Fundamentals abgeschlossen, Level 3 Agents & MCP ist das nächste Level

Level 3: Agents & MCP — Vom passiven Text-Generator zum aktiven Agenten. Du lernst, wie LLMs Tools aufrufen, wie der Tool-Call-Loop funktioniert und wie Du mit dem Model Context Protocol (MCP) externe Dienste anbindest. Dein LLM kann dann nicht nur antworten, sondern handeln.

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn