AI-Fluenz · Tägliche Praxis · 2023–heute
AI ist ein Werkzeug, kein Feature.
Ich baue seit drei Jahren mit LLMs. Ich habe einen AI-Tier bepreist, Production-Prompts geschrieben, Eval-Pipelines aufgebaut und mit RAG-Systemen Kunden verloren und gewonnen. Hier ist ehrlich, was ich kann — und was nicht.
Stack · Täglich
Claude
Täglich. Haupttreiber für Writing, Specs, Code-Review.
Cursor
Haupt-IDE. Pair mit Claude für Prototypen und Internal Tools.
LangSmith / Langfuse
Für Prompt-Versioning und Eval-Tracking in Production.
OpenAI API
Structured Output, Embeddings, Fallback-Modell.
v0 / Lovable
Discovery-Prototypen für Stakeholder-Reviews.
Replit Agent
Quick-and-dirty Internal Tools & Automation.
Was ich tatsächlich gebaut habe
- INFORM AI-Tier · LLM-Layer auf 4 Enterprise-Produkten · 0 → 19% Umsatz.
- RAG-System auf firmeneigenen Optimierungs-Algorithmen, 340k Dokumente.
- Eval-Pipeline mit 1.200 Testfällen · 3 Halluzinations-Kategorien.
- Prompt-Versioning-System für 14 Production-Prompts, Git-basiert.
- Internal-PM-Tool: Specs → User-Stories → Jira, mit Claude-Agent.
- Pricing-Calculator für Usage-Based Billing, self-serve.
Ebenen der Fluenz
Nicht jeder PM braucht jede Ebene.
Ebene 1
User
Nutzt ChatGPT / Claude täglich, spart 2-3h pro Woche.
✓ Sicher
Ebene 2
Prototyper
Baut Prototypen, Internal Tools, Automationen ohne Eng-Ticket.
✓ Sicher
Ebene 3
Builder
Versteht Prompts als Code, baut Eval-Pipelines, besitzt LLM-Features in Production.
✓ Hier stehe ich
Ebene 4
Researcher
Fine-Tunt Modelle, trainiert Custom-Embeddings, arbeitet auf Paper-Ebene.
— Nicht mein Feld
Starke Meinungen · locker gehalten
+ Pro
AI-Features gehören ins Pricing, nicht in den Marketing-Header.
Wenn du deine AI-Capability nicht eigenständig bepreisen kannst, hast du noch kein Feature. Du hast ein Demo.
− Contra
Agents ersetzen (noch) keine PMs.
Sie ersetzen Discovery-Kalender, Spec-Drafts und erste Feature-Explorations. Nicht Urteilskraft über Kunden.
+ Pro
Eval > Prompt.
Ich investiere 10x mehr Zeit in Test-Sets als in Prompt-Engineering. Der Prompt ist eine Variable. Der Eval ist die Funktion.
− Contra
RAG wird überschätzt.
In meinen letzten drei Projekten war strukturiertes Output-Parsing hilfreicher als Retrieval. Context-Window-Inflation löst mehr, als Retrieval-Tuning je wird.
Diese Seite
Ich habe sie selbst gebaut — mit Claude als Pair.
Das Meta-Statement ist gewollt. Wenn ich nicht selbst mit diesen Werkzeugen bauen kann, sollte ich keinen Kandidaten dafür bepreisen.