
ThinkPrompt gewinnt AI Excellence Award
Honeyfield wurde bei AIR Salzburg 2026 für ThinkPrompt ausgezeichnet. Für ein Problem, das Teams beim AI Coding gerade erst richtig spüren.

Vier Produkte, alle live, alle mit KI entwickelt. Erfahren Sie, wie wir mit Claude Code und MCP-Servern unseren Entwicklungs-Workflow revolutioniert haben.
Vier Produkte. Alle live. Alle mit KI entwickelt.
Vor einem Jahr klang das noch nach Science Fiction. Heute ist es unser Alltag bei Honeyfield. Wir nutzen Claude Code – Anthropics CLI für AI-gestützte Entwicklung – als zentrales Werkzeug in unserem Development-Workflow. Nicht als nettes Spielzeug nebenbei, sondern als echten Pair Programmer, der mit uns im Terminal sitzt.
Die Ergebnisse sind qualitativ hochwertig. Aber nicht, weil die KI magisch alles perfekt macht. Sondern weil wir gelernt haben, ihr den richtigen Kontext zu geben. Der Schlüssel dazu? Context Engineering und ein durchdachter Stack aus MCP-Servern, Skills und klaren Prozessen.
In diesem Artikel zeige ich euch unser komplettes Setup – transparent, mit allen Stärken und Schwächen.
Die meisten Diskussionen über KI-Entwicklung drehen sich um das richtige Prompting. Unser Learning nach fast einem Jahr intensiver AI-gestützter Entwicklung: Der Prompt ist nur die Spitze des Eisbergs.
Was wirklich den Unterschied macht, ist der Kontext, den du der KI gibst. Und damit meine ich nicht nur „erklär mir das Problem gut". Ich meine die gesamte Infrastruktur an Informationen, die der KI zur Verfügung steht:
Jede dieser Informationsquellen erweitert die Wissensbasis der KI – und genau dafür setzen wir MCP-Server ein.
Hier ist das komplette Setup, das wir bei Honeyfield für unsere AI-gestützte Entwicklung nutzen. Jedes Tool hat eine klare Rolle im Workflow:
Statt Screenshots hin und her zu kopieren, liest Claude Code die Designs direkt aus Figma. Der MCP-Server gibt der KI strukturierten Zugriff auf Komponenten, Farben, Spacing und Layout-Informationen. Das Ergebnis: Die KI versteht nicht nur was gebaut werden soll, sondern auch wie es aussehen soll.
Direkter Zugriff auf die Datenbank-Struktur. Claude Code sieht, wie die Daten aufgeteilt sind, kann Migrationen durchführen und diese schnell testen. Kein Raten mehr über Tabellenstrukturen oder Relationen – die KI arbeitet mit echten Daten.
Ein unterschätztes Tool. Serena fungiert als Language Server und reduziert sowohl Entwicklungszeit als auch Tokenverbrauch erheblich. Statt dass Claude Code den gesamten Codebase durchsuchen muss, bekommt es gezielte Code-Informationen – ähnlich wie IntelliSense für KI.
Aus dem Anthropic Plugin Marketplace nutzen wir verschiedene Plugins wie den Frontend Design Skill oder den Feature Dev Skill. Diese vorgefertigten Erweiterungen geben Claude Code Best Practices, spezialisierte Agents und Patterns mit, die die Output-Qualität spürbar verbessern.
Der offizielle Marketplace enthält aktuell über 40 Plugins in folgenden Kategorien:
Development Tools (Interne Plugins von Anthropic): Agent SDK Dev (SDK-Projektsetup und -Validierung), Feature Dev (kompletter Feature-Entwicklungs-Workflow mit spezialisierten Agents), Frontend Design (produktionsreife UI-Entwicklung), Plugin Dev (Toolkit zum Erstellen eigener Plugins), Ralph Loop (iterative AI-Loops für komplexe Tasks), Code Simplifier (Code-Vereinfachung und Refactoring), Playground (interaktive HTML-Playgrounds). Dazu kommen Language Server Plugins (LSPs) für TypeScript/JavaScript, Python, Go, Rust, Java, Kotlin, C/C++, C#, PHP, Swift und Lua – diese geben Claude Code die Fähigkeit, Definitionen zu finden, Referenzen zu verfolgen und Type-Errors sofort nach Edits zu sehen.
Code Quality & Review: Code Review (automatisiertes PR-Review mit mehreren spezialisierten Agents und Confidence-Scoring), PR Review Toolkit (Review-Agents für Comments, Tests, Error Handling, Type Design und Code Quality), Hookify (Custom Hooks erstellen über einfache Markdown-Regeln), Security Guidance (Sicherheits-Hinweise bei potenziellen Schwachstellen).
Learning & Output Styles: Explanatory Output Style (Erklärungen zu Implementation-Entscheidungen), Learning Output Style (Lern-fokussierte Ausgabe).
External Plugins (Community & Partner): Serena (Language Server), Greptile (Codebase-Suche), GitHub, GitLab, Linear, Notion, Asana und Atlassian (Project Management), Stripe, Vercel und Sentry (Infrastructure & Monitoring), Figma (Design), Slack (Kommunikation), Supabase, Firebase und Pinecone (Databases & Backend).
Installation ist einfach: /plugin install {plugin-name}@claude-plugin-directory oder über /plugin > Discover im CLI.
Das ist der Game Changer im Testing: Die KI baut Features und verifiziert selbst, ob das Ergebnis funktioniert. Über den Playwright MCP kann Claude Code das Frontend öffnen, durchklicken und prüfen. Die Feedback-Loop wird damit deutlich kürzer.
Damit Claude Code weiß, was genau umzusetzen ist, liest es die Ticket-Informationen direkt aus ClickUp. Anforderungen, Akzeptanzkriterien, Kontext – alles fließt automatisch in den Entwicklungsprozess ein.
So sieht ein typischer Entwicklungszyklus bei uns aus:
Bei aller Begeisterung – und wir sind begeistert – muss man ehrlich sein: Auch Opus 4.6 ist nicht perfekt.
Manchmal verrennt sich die KI. Sie geht einen Weg, der technisch funktioniert, aber nicht die beste Lösung ist. Oder sie interpretiert Anforderungen anders als gemeint. Als Entwickler muss man weiterhin ein Auge darauf werfen und validieren, ob das Ergebnis wirklich gut ist.
Die größte Herausforderung ist aber eine andere – und sie liegt bei uns, nicht bei der KI:
Wenn man so schnell entwickeln kann, neigt man dazu, zu viele Themen gleichzeitig anzufangen. Da bleibt unfertiger Code und unfertige Features zurück. Das ist etwas, woran man als Entwickler selbst arbeiten muss – Fokus halten, um wirklich gute Ergebnisse zu erzielen.
Die Geschwindigkeit der KI verleitet dazu, an allem gleichzeitig zu arbeiten. Aber genau wie bei herkömmlicher Entwicklung gilt: Weniger gleichzeitig, dafür fertig – das bringt bessere Ergebnisse.
Nach fast einem Jahr intensiver Arbeit mit Claude Code und MCP-Servern sind das unsere wichtigsten Learnings:
Context Engineering schlägt Prompt Engineering. Es geht nicht darum, die perfekte Frage zu stellen. Es geht darum, der KI die richtige Informationsinfrastruktur zu geben. MCP-Server sind der Schlüssel dazu.
Qualität kommt nicht von allein. Unsere Produkte sind qualitativ hochwertig, weil wir nicht einfach „vibe coden". Wir geben der KI strukturierte Informationen, klare Patterns und verifizieren die Ergebnisse automatisiert.
Der Mensch bleibt entscheidend. Nicht als Code-Schreiber, sondern als Architekt, Reviewer und Qualitätsgarant. Die KI ist ein extrem fähiger Pair Programmer – aber eben ein Partner, kein Ersatz.
Fokus ist die wahre Herausforderung. Die Geschwindigkeit der KI ist Segen und Fluch zugleich. Die Disziplin, eine Sache fertig zu machen, bevor man die nächste anfängt, ist wichtiger denn je.
Haben Sie Fragen oder möchten Sie über Ihr Projekt sprechen? Kontaktieren Sie uns und wir helfen Ihnen gerne weiter!

Honeyfield wurde bei AIR Salzburg 2026 für ThinkPrompt ausgezeichnet. Für ein Problem, das Teams beim AI Coding gerade erst richtig spüren.

Warum checkts.gpa.at keine Paragraphen erfindet, und was B2B-Entscheider:innen daraus mitnehmen können, bevor sie ihren eigenen Domain-Chatbot bauen. Eine Case Study zum AI-Chatbot für die GPA, gemeinsam mit Studio C gebaut.

Vibe Coding: Wie KI-gestützte Softwareentwicklung unser Business verändert hat