Alle Blog-Beiträge

Unser AI-Development Stack 2026: Wie wir mit Claude Code und MCP-Servern Software entwickeln

Vier Produkte. Alle live. Alle mit KI entwickelt.

Vor einem Jahr klang das noch nach Science Fiction. Heute ist es unser Alltag bei Honeyfield. Wir nutzen Claude Code – Anthropics CLI für AI-gestützte Entwicklung – als zentrales Werkzeug in unserem Development-Workflow. Nicht als nettes Spielzeug nebenbei, sondern als echten Pair Programmer, der mit uns im Terminal sitzt.

Die Ergebnisse sind qualitativ hochwertig. Aber nicht, weil die KI magisch alles perfekt macht. Sondern weil wir gelernt haben, ihr den richtigen Kontext zu geben. Der Schlüssel dazu? Context Engineering und ein durchdachter Stack aus MCP-Servern, Skills und klaren Prozessen.

In diesem Artikel zeige ich euch unser komplettes Setup – transparent, mit allen Stärken und Schwächen.

Warum Context Engineering wichtiger ist als Prompt Engineering

Die meisten Diskussionen über KI-Entwicklung drehen sich um das richtige Prompting. Unser Learning nach fast einem Jahr intensiver AI-gestützter Entwicklung: Der Prompt ist nur die Spitze des Eisbergs.

Was wirklich den Unterschied macht, ist der Kontext, den du der KI gibst. Und damit meine ich nicht nur „erklär mir das Problem gut". Ich meine die gesamte Infrastruktur an Informationen, die der KI zur Verfügung steht:

  • Wie sieht das Design aus? (Figma)
  • Wie ist die Datenbank strukturiert? (Supabase)
  • Welche Code-Patterns verwenden wir? (Language Server)
  • Was steht im Ticket? (ClickUp)
  • Funktioniert das Ergebnis? (Playwright)

Jede dieser Informationsquellen erweitert die Wissensbasis der KI – und genau dafür setzen wir MCP-Server ein.

Unser Tech Stack im Detail

Hier ist das komplette Setup, das wir bei Honeyfield für unsere AI-gestützte Entwicklung nutzen. Jedes Tool hat eine klare Rolle im Workflow:

🎨 Figma MCP Server – Designs lesen

Statt Screenshots hin und her zu kopieren, liest Claude Code die Designs direkt aus Figma. Der MCP-Server gibt der KI strukturierten Zugriff auf Komponenten, Farben, Spacing und Layout-Informationen. Das Ergebnis: Die KI versteht nicht nur was gebaut werden soll, sondern auch wie es aussehen soll.

🗄️ Supabase MCP – Datenbank-Zugriff

Direkter Zugriff auf die Datenbank-Struktur. Claude Code sieht, wie die Daten aufgeteilt sind, kann Migrationen durchführen und diese schnell testen. Kein Raten mehr über Tabellenstrukturen oder Relationen – die KI arbeitet mit echten Daten.

⚡ Serena Language Server – Tokenverbrauch reduzieren

Ein unterschätztes Tool. Serena fungiert als Language Server und reduziert sowohl Entwicklungszeit als auch Tokenverbrauch erheblich. Statt dass Claude Code den gesamten Codebase durchsuchen muss, bekommt es gezielte Code-Informationen – ähnlich wie IntelliSense für KI.

📚 Claude Code Plugins & Skills – Bessere Ergebnisse

Aus dem Anthropic Plugin Marketplace nutzen wir verschiedene Plugins wie den Frontend Design Skill oder den Feature Dev Skill. Diese vorgefertigten Erweiterungen geben Claude Code Best Practices, spezialisierte Agents und Patterns mit, die die Output-Qualität spürbar verbessern.

Der offizielle Marketplace enthält aktuell über 40 Plugins in folgenden Kategorien:

Development Tools (Interne Plugins von Anthropic): Agent SDK Dev (SDK-Projektsetup und -Validierung), Feature Dev (kompletter Feature-Entwicklungs-Workflow mit spezialisierten Agents), Frontend Design (produktionsreife UI-Entwicklung), Plugin Dev (Toolkit zum Erstellen eigener Plugins), Ralph Loop (iterative AI-Loops für komplexe Tasks), Code Simplifier (Code-Vereinfachung und Refactoring), Playground (interaktive HTML-Playgrounds). Dazu kommen Language Server Plugins (LSPs) für TypeScript/JavaScript, Python, Go, Rust, Java, Kotlin, C/C++, C#, PHP, Swift und Lua – diese geben Claude Code die Fähigkeit, Definitionen zu finden, Referenzen zu verfolgen und Type-Errors sofort nach Edits zu sehen.

Code Quality & Review: Code Review (automatisiertes PR-Review mit mehreren spezialisierten Agents und Confidence-Scoring), PR Review Toolkit (Review-Agents für Comments, Tests, Error Handling, Type Design und Code Quality), Hookify (Custom Hooks erstellen über einfache Markdown-Regeln), Security Guidance (Sicherheits-Hinweise bei potenziellen Schwachstellen).

Learning & Output Styles: Explanatory Output Style (Erklärungen zu Implementation-Entscheidungen), Learning Output Style (Lern-fokussierte Ausgabe).

External Plugins (Community & Partner): Serena (Language Server), Greptile (Codebase-Suche), GitHub, GitLab, Linear, Notion, Asana und Atlassian (Project Management), Stripe, Vercel und Sentry (Infrastructure & Monitoring), Figma (Design), Slack (Kommunikation), Supabase, Firebase und Pinecone (Databases & Backend).

Installation ist einfach: /plugin install {plugin-name}@claude-plugin-directory oder über /plugin > Discover im CLI.

🧪 Playwright MCP – Selbstverifikation

Das ist der Game Changer im Testing: Die KI baut Features und verifiziert selbst, ob das Ergebnis funktioniert. Über den Playwright MCP kann Claude Code das Frontend öffnen, durchklicken und prüfen. Die Feedback-Loop wird damit deutlich kürzer.

📋 ClickUp MCP – Tickets lesen

Damit Claude Code weiß, was genau umzusetzen ist, liest es die Ticket-Informationen direkt aus ClickUp. Anforderungen, Akzeptanzkriterien, Kontext – alles fließt automatisch in den Entwicklungsprozess ein.

Der Workflow in der Praxis

So sieht ein typischer Entwicklungszyklus bei uns aus:

  1. Ticket lesen: Claude Code holt sich die Anforderungen aus ClickUp
  2. Design verstehen: Figma MCP liefert die visuelle Spezifikation
  3. Datenbank prüfen: Supabase MCP zeigt die Datenstruktur und ermöglicht Migrationen
  4. Entwickeln: Claude Code schreibt den Code mit Skills und Language Server-Support
  5. Testen: Playwright MCP verifiziert das Ergebnis automatisch
  6. Iterieren: Bei Fehlern geht der Zyklus von vorne los – oft ohne menschliches Eingreifen

Die ehrliche Seite: Wo es noch hakt

Bei aller Begeisterung – und wir sind begeistert – muss man ehrlich sein: Auch Opus 4.6 ist nicht perfekt.

Manchmal verrennt sich die KI. Sie geht einen Weg, der technisch funktioniert, aber nicht die beste Lösung ist. Oder sie interpretiert Anforderungen anders als gemeint. Als Entwickler muss man weiterhin ein Auge darauf werfen und validieren, ob das Ergebnis wirklich gut ist.

Die größte Herausforderung ist aber eine andere – und sie liegt bei uns, nicht bei der KI:

Wenn man so schnell entwickeln kann, neigt man dazu, zu viele Themen gleichzeitig anzufangen. Da bleibt unfertiger Code und unfertige Features zurück. Das ist etwas, woran man als Entwickler selbst arbeiten muss – Fokus halten, um wirklich gute Ergebnisse zu erzielen.

Die Geschwindigkeit der KI verleitet dazu, an allem gleichzeitig zu arbeiten. Aber genau wie bei herkömmlicher Entwicklung gilt: Weniger gleichzeitig, dafür fertig – das bringt bessere Ergebnisse.

Was wir gelernt haben

Nach fast einem Jahr intensiver Arbeit mit Claude Code und MCP-Servern sind das unsere wichtigsten Learnings:

Context Engineering schlägt Prompt Engineering. Es geht nicht darum, die perfekte Frage zu stellen. Es geht darum, der KI die richtige Informationsinfrastruktur zu geben. MCP-Server sind der Schlüssel dazu.

Qualität kommt nicht von allein. Unsere Produkte sind qualitativ hochwertig, weil wir nicht einfach „vibe coden". Wir geben der KI strukturierte Informationen, klare Patterns und verifizieren die Ergebnisse automatisiert.

Der Mensch bleibt entscheidend. Nicht als Code-Schreiber, sondern als Architekt, Reviewer und Qualitätsgarant. Die KI ist ein extrem fähiger Pair Programmer – aber eben ein Partner, kein Ersatz.

Fokus ist die wahre Herausforderung. Die Geschwindigkeit der KI ist Segen und Fluch zugleich. Die Disziplin, eine Sache fertig zu machen, bevor man die nächste anfängt, ist wichtiger denn je.

Haben Sie Fragen oder möchten Sie über Ihr Projekt sprechen? Kontaktieren Sie uns und wir helfen Ihnen gerne weiter!

Honeyfield GmbH