Pascal JordinSenior Product Manager · AachenOffen für Gespräche
AI-Fluenz · Tägliche Praxis · 2023–heute

AI ist ein Werkzeug, kein Feature.

Ich baue seit drei Jahren mit LLMs. Ich habe einen AI-Tier bepreist, Production-Prompts geschrieben, Eval-Pipelines aufgebaut und mit RAG-Systemen Kunden verloren und gewonnen. Hier ist ehrlich, was ich kann — und was nicht.

Stack · Täglich
Claude
Täglich. Haupttreiber für Writing, Specs, Code-Review.
Cursor
Haupt-IDE. Pair mit Claude für Prototypen und Internal Tools.
LangSmith / Langfuse
Für Prompt-Versioning und Eval-Tracking in Production.
OpenAI API
Structured Output, Embeddings, Fallback-Modell.
v0 / Lovable
Discovery-Prototypen für Stakeholder-Reviews.
Replit Agent
Quick-and-dirty Internal Tools & Automation.
Was ich tatsächlich gebaut habe
  • INFORM AI-Tier · LLM-Layer auf 4 Enterprise-Produkten · 0 → 19% Umsatz.
  • RAG-System auf firmeneigenen Optimierungs-Algorithmen, 340k Dokumente.
  • Eval-Pipeline mit 1.200 Testfällen · 3 Halluzinations-Kategorien.
  • Prompt-Versioning-System für 14 Production-Prompts, Git-basiert.
  • Internal-PM-Tool: Specs → User-Stories → Jira, mit Claude-Agent.
  • Pricing-Calculator für Usage-Based Billing, self-serve.
Ebenen der Fluenz

Nicht jeder PM braucht jede Ebene.

Ebene 1
User
Nutzt ChatGPT / Claude täglich, spart 2-3h pro Woche.
✓ Sicher
Ebene 2
Prototyper
Baut Prototypen, Internal Tools, Automationen ohne Eng-Ticket.
✓ Sicher
Ebene 3
Builder
Versteht Prompts als Code, baut Eval-Pipelines, besitzt LLM-Features in Production.
✓ Hier stehe ich
Ebene 4
Researcher
Fine-Tunt Modelle, trainiert Custom-Embeddings, arbeitet auf Paper-Ebene.
— Nicht mein Feld
Starke Meinungen · locker gehalten
+ Pro
AI-Features gehören ins Pricing, nicht in den Marketing-Header.

Wenn du deine AI-Capability nicht eigenständig bepreisen kannst, hast du noch kein Feature. Du hast ein Demo.

− Contra
Agents ersetzen (noch) keine PMs.

Sie ersetzen Discovery-Kalender, Spec-Drafts und erste Feature-Explorations. Nicht Urteilskraft über Kunden.

+ Pro
Eval > Prompt.

Ich investiere 10x mehr Zeit in Test-Sets als in Prompt-Engineering. Der Prompt ist eine Variable. Der Eval ist die Funktion.

− Contra
RAG wird überschätzt.

In meinen letzten drei Projekten war strukturiertes Output-Parsing hilfreicher als Retrieval. Context-Window-Inflation löst mehr, als Retrieval-Tuning je wird.

Diese Seite
Ich habe sie selbst gebaut — mit Claude als Pair.
Das Meta-Statement ist gewollt. Wenn ich nicht selbst mit diesen Werkzeugen bauen kann, sollte ich keinen Kandidaten dafür bepreisen.
Darüber sprechen →