Zum Inhalt springen
EN DE

Foundation Models

Dein CTO sagt: “Wir nehmen GPT-5.2.” Dein ML-Engineer widerspricht: “Llama 4 reicht und kostet ein Zehntel.” Der Berater schlägt vor, ein eigenes Modell zu trainieren. Alle haben gute Argumente.

Du bist der Product Manager. Du musst nicht wissen, welche Architektur besser ist. Aber Du musst verstehen, was Foundation Models sind, welche Optionen existieren, und wie Du die richtige Entscheidung für Dein Produkt triffst.

Foundation Models sind Modelle, die auf breiten Daten in grossem Massstab trainiert und auf eine Vielzahl nachgelagerter Aufgaben anpassbar sind (Stanford HAI, 2021). Vor Foundation Models brauchtest Du ein separates Modell für jede Aufgabe. Heute nimmst Du ein Basismodell und passt es an.

Emergent Capabilities: Ab einer bestimmten Groesse zeigen Foundation Models Faehigkeiten, für die sie nie explizit trainiert wurden. Ein Sprachmodell kann ploetzlich Code schreiben oder logisch schlussfolgern. Vorsicht: Aktuelle Forschung (arXiv:2503.05788, 2025) zeigt, dass manche dieser “ploetzlichen” Faehigkeiten Messartefakte sein koennten.

Homogenisierung: Dasselbe Modell liegt unter vielen verschiedenen Apps. Das ist effizient — aber auch ein Konzentrationsrisiko. Wenn das Basismodell einen systematischen Bias hat, erben ihn alle Anwendungen.

Demokratisierung: Frueher brauchtest Du ein ML-Team, um ein Modell zu bauen. Heute: Prompt schreiben → Fine-tuning → RAG. Die Einstiegshuerde für AI-Produkte ist drastisch gesunken.

Closed-Source: OpenAI (GPT-5.2, o3), Anthropic (Claude Opus 4.6, Sonnet 4.6), Google (Gemini 3 Pro/Flash). Hoechste Qualität, einfachste Integration, aber Vendor Lock-in.

Open-Source: Meta (Llama 4), DeepSeek (V3.2), Alibaba (Qwen 3), Mistral. Volle Kontrolle, keine Abhängigkeit, aber Du brauchst eigene Infrastruktur. DeepSeek zeigt, dass Open-Source Frontier-Qualität erreichen kann — mit MIT-Lizenz und Performance auf IMO- und IOI-Benchmark-Niveau.

Alle Modelle werden zunehmend multimodal: Text, Bild, Audio, Video in einem Modell.

Anpassungstechniken — vom Billigsten zum Tiefsten

Abschnitt betitelt „Anpassungstechniken — vom Billigsten zum Tiefsten“
TechnikWas passiertKostenWann
Prompt EngineeringZero-Shot, Few-Shot, Chain-of-ThoughtAm guenstigstenSchneller Start, Prototypen
RAGRelevante Daten abrufen + in den Prompt injizierenMittelAktuelle Daten, weniger Hallucinations
Fine-tuningModellgewichte auf Domaene anpassenHochSpezialisierte Domaene, konsistenter Stil
Von Grund auf trainierenEigenes Modell bauenSehr hochEinzigartige Daten, strategischer Vorteil

Die Faustregel: So weit rechts wie noetig, so weit links wie möglich.

Foundation Model Selection — drei Schritte zur richtigen Modellwahl:

Schritt 1 — Requirements definieren: Task-Typ, Latenz, Volumen, Datensensitivitaet, Genauigkeit, Budget.

Schritt 2 — Auf Modellkategorie mappen:

AnforderungAnsatz
Schnell, guenstig, gut genugOpen-Source oder Gemini Flash
Maximale QualitätClaude Opus, GPT-5.2, Gemini Pro
Daten müssen lokal bleibenOpen-Source, Self-hosted
MultimodalGemini (nativ), GPT-5 (Vision), Claude (Vision)
Langer ContextGemini (1M+), Llama 4 Scout (10M), Claude (200K)

Schritt 3 — Mit Evals validieren. Nie auf Basis von Benchmarks allein entscheiden. Teste mit Deinen echten Daten, Deinen echten Use Cases.

Build vs Buy vs Blend:

StrategieWannBeispiel
BuyCommoditized Use Case, Speed, ComplianceDuolingo: GPT-4 API für Sprachuebungen
BuildWettbewerbsvorteil, sensible DatenHarvey: eigenes Legal-LLM auf proprietaeren Rechtsdaten
BlendDer Normalfall 2026Shopify Sidekick: API + proprietäre Commerce-Daten

Das dominante Pattern 2026: Blend. Plattform kaufen, letzte Meile selbst bauen. Hybrid Routing — 80% guenstiges Open-Source, 20% Frontier Closed für die schwierigen Faelle.

Du baust einen internen Wissensassistenten für ein Unternehmen mit 2.000 Mitarbeitern. Er soll interne Dokumente durchsuchen und Fragen beantworten. Die Dokumente enthalten vertrauliche HR- und Finanzdaten.

Die Optionen:

OptionSetup-KostenLaufende Kosten/MonatDatenschutzTime-to-Market
A: Claude API + RAG$15.000$3.200Daten verlassen das Unternehmen6 Wochen
B: Llama 4 Self-hosted + RAG$80.000$1.800Volle Kontrolle14 Wochen
C: Blend — Llama 4 für Standard, Claude für Komplexes$55.000$2.100Nur nicht-sensible Daten extern10 Wochen

Closed-Source-Modelle kosten im Betrieb ca. 87% mehr als Open-Source-Alternativen (MIT Sloan), werden aber in 80% der Faelle gewaehlt — wegen einfacherer Integration und schnellerem Start.

Wie wuerdest Du entscheiden?

Die beste Entscheidung in diesem Szenario: Option C — Blend mit Hybrid Routing.

Warum:

  • Vertrauliche HR-/Finanzdaten bleiben auf dem eigenen Llama-4-Server. Nur nicht-sensible Anfragen gehen an die Claude API für hoehere Qualität bei komplexem Reasoning.
  • Die laufenden Kosten liegen 34% unter der reinen API-Lösung.
  • 10 Wochen Time-to-Market ist ein akzeptabler Kompromiss — nicht so schnell wie reine API, aber mit deutlich besserem Datenschutz.
  • Du vermeidest vollstaendigen Vendor Lock-in und kannst den Closed-Source-Anteil jederzeit ersetzen.

Was viele falsch machen: Entweder alles auf eine API setzen (“einfach und schnell”) ohne die Datenschutz-Implikationen zu bedenken, oder alles selbst hosten wollen und an der Komplexität scheitern.

  • Foundation Models sind die Plattformschicht von AI. Versteh sie als Infrastruktur-Entscheidung, nicht als Feature-Entscheidung — sie bestimmt, was Du bauen kannst und was nicht.
  • Open vs Closed ist kein Entweder-Oder. Das dominante Pattern 2026 ist Hybrid Routing: guenstiges Open-Source für den Grossteil, Frontier Closed für die schwierigen Faelle.
  • Die Anpassungstechnik ist wichtiger als das Modell. RAG mit einem guten Modell schlägt Fine-tuning mit dem besten Modell — wenn der Use Case passt.
  • Evals schlagen Benchmarks. Kein Benchmark ersetzt den Test mit Deinen echten Daten und Deinen echten Nutzern.

Quellen: Bommasani et al. “On the Opportunities and Risks of Foundation Models” (Stanford HAI, 2021), MIT Sloan “Open vs Closed AI Models” (2025), arXiv:2503.05788 (2025), DeepSeek Technical Reports (2025-2026)

Part of AI Learning — free courses from prompt to production. Jan on LinkedIn