Moselwal als AI-Company umbauen — was Y Combinator sagt und was ich daraus mache
Diana Hu (Y Combinator) hat in der Startup-School-Folge „How To Build A Company With AI From The Ground Up“ eine Position formuliert, die mich beim ersten Sehen still gemacht hat — und beim zweiten Sehen zum Schreiben gebracht. Notizen zu Agentic Engineering, privater KI auf eigener Infrastruktur und der Frage, warum das am Ende mehr Mensch bedeutet, nicht weniger.
Der Satz, der hängenbleibt
Diana Hu sagt sinngemäß: Eine AI-Company ist keine Company, die AI als Werkzeug benutzt. Es ist eine Company, deren Operating System die KI ist. Der Unterschied klingt nach Begriffsfeinheit. Er ist es nicht.
Werkzeuge holst du dir, wenn du sie brauchst. Ein Operating System trägt jeden Vorgang. Wenn das Betriebssystem KI ist, dann läuft Verkauf, Support, Operations, Engineering und Reporting nicht mehr auf Menschen, die KI gelegentlich konsultieren — sondern auf einer Schicht, die ständig zwischen Daten und Menschen vermittelt, mit Daten arbeitet, Schlüsse zieht und vorschlägt. Menschen entscheiden, kuratieren, korrigieren. Aber sie sind nicht mehr das Middleware.
Ich nehme diese Position als Arbeitshypothese mit. Und ich beginne, Moselwal genau in diese Richtung umzubauen.
Wo wir heute schon sind: Agentic Engineering, nicht autonom
In der Entwicklung läuft das längst. Nicht als Hype-Behauptung, sondern als operative Realität: Ich arbeite mit AI-Agenten in fast allen Engineering-Schritten. Code-Reviews mit KI-gestützter Kontext-Analyse, Refactoring-Vorschläge, Test-Generierung, Dokumentations-Entwürfe, CVE-Recherche, SBOM-Auswertung, sogar Teile der Pipeline-Konfiguration und IaC-Reviews.
Was ich bewusst nicht mache: autonome Agenten ohne menschliche Klammer. Das, was viele unter „agentic AI“ verstehen — der Agent macht's, du schaust am Ende drauf — ist für seriöse Engineering-Arbeit ein zu offener Loop. Die Fehler, die in autonomen Setups durchrutschen, sind oft erst beim Code-Audit drei Wochen später sichtbar. Und dann teurer als das Sparpotenzial.
Was sich in der Software-Entwicklung gerade als Konsens herausschält, läuft unter dem Begriff Agentic Engineering: Der Agent ist Werkzeug und Sparringspartner, der Engineer bleibt der Engineer. Jede nicht-triviale Änderung läuft durch menschliche Kontrolle, jede Code-Zeile ist nachvollziehbar diskutiert, und die Pipeline schlägt Alarm, wenn etwas am Standard vorbeirutscht. Das Ergebnis: deutlich höherer Output bei vergleichbarer oder besserer Qualität, mit einem Engineer, der in jedem Moment weiß, was im Code steht.
Das ist nicht autonom. Es ist nicht KI, die für mich arbeitet. Es ist KI, die mit mir arbeitet — bewusst, im Loop, mit menschlichem Last Word.
Private KI auf eigener Infrastruktur
Der zweite Punkt, der nicht verhandelbar ist: Diese KI-Schicht läuft bei uns nicht über fremde APIs, in die unsere Daten und die unserer Kunden einfach abfließen. Sie läuft auf eigener Infrastruktur, mit Modellen, die wir kontrollieren.
Warum? Weil eine AI-Company, die ihren Kunden Customer-Owned-Architekturen verkauft und gleichzeitig deren Geschäftsgeheimnisse durch ein Drittanbieter-API schickt, eine inkonsistente Geschichte erzählt. Wenn ich einem Mittelständler erkläre, warum sein Stack auf seinen Servern und mit seinen Schlüsseln laufen sollte, dann muss meine eigene Engineering-Schicht das auch tun. Sonst ist es Marketing, nicht Disziplin.
Konkret heißt das: Open-Weight-Modelle auf eigenen GPU-Knoten in unserer eigenen Infrastruktur, mit einer Routing-Schicht, die das jeweils passende Modell pro Aufgabe wählt. Embeddings für Retrieval-Augmented-Generation laufen lokal, Vector-Stores ebenfalls. Code- und Customer-Daten verlassen die Moselwal-Infrastruktur nur, wenn der Customer-Vertrag das explizit erlaubt — und das ist die Ausnahme, nicht die Regel.
Die Performance ist nicht in jedem Benchmark auf Frontier-Niveau. Aber sie ist in der täglichen Engineering-Arbeit gut genug, sie ist datentechnisch sauber, und sie skaliert mit unserer Hardware statt mit fremden Preislisten. Wenn ein Kunde zu uns kommt mit der Anforderung „bitte keine Kundendaten in US-Cloud-APIs“, können wir das nicht nur empfehlen, sondern selbst leben.
Das ist die ehrlichere Klammer um die ganze AI-Company-These: Eigene Hoheit über Daten, Modelle und Schlüssel ist die Voraussetzung dafür, dass „AI als Operating System“ überhaupt zur Geschäftsgrundlage werden kann — und nicht zur Abhängigkeit, die im nächsten Preismodell-Wechsel kippt.
Wohin ich Moselwal als Ganzes bewegen will
Engineering ist nur der erste Sektor, der diese Disziplin trägt. Diana Hus Punkt zur „queryable organization“ trifft hier: Wenn Sales, Operations, Reporting und Support nicht datentechnisch greifbar sind, kann eine KI-Schicht sie auch nicht orchestrieren. Was bei uns dafür auf dem Plan steht, in keiner besonderen Reihenfolge:
Sales und Lead-Management als strukturierte Pipeline mit Daten, die Agenten lesen, anreichern und vorschlagen können — keine zerstreuten E-Mail-Fäden, keine Excel-Tabellen mit individuellen Notizen. Erste Schritte sind gemacht: ein zentrales CRM mit klarer Stage-Struktur, Lead-Scoring-Inputs aus mehreren Quellen, automatische Profil-Anreicherung per API.
Operations als auditierbare Vorgangs-Schicht. Welche Aufgabe gehört zu welchem Kunden, welcher Stunden-Aufwand, welcher SLA-Status, welcher offene Punkt — das alles in einem System, das Agenten abfragen können. Ohne diese Schicht ist die KI nur ein hübscher Chat-Aufsatz auf Schatten-IT.
Reporting und Dashboards generativ, im Sinne von Diana Hus „one-shot internal dashboards“. Statt vorgefertigter Reports baut die Schicht das Dashboard, das gerade gebraucht wird, aus den Daten, die da sind. Das verlangt Datenstruktur und Berechtigungs-Modell als Voraussetzung — beides keine triviale Aufgabe für eine Agentur, die historisch viel auf Excel-Wissen aufgebaut hat.
Marketing und Content mit Agenten-Unterstützung in der Recherche, Strukturierung und Erst-Fassung. Die Schreib-Stimme bleibt bei mir und beim Team — kein KI-generierter Content ohne menschliche Endredaktion. Aber der Recherche-Schritt ist mit Agenten oft zehnmal schneller als ohne.
Das alles ist mittelfristig. Ich gebe mir bis Ende 2027 für die Erstausstattung dieser Schicht — realistisch, weil der Engineering-Teil schon läuft, der Operations-Teil aber noch ein paar Quartale Disziplin braucht.
Warum das am Ende mehr Mensch bedeutet, nicht weniger
Der Punkt, den die Diskussion über AI-Companies oft verfehlt: Eine sauber gebaute KI-Schicht ist kein Ersatz für menschlichen Kontakt. Sie ist die Voraussetzung dafür, dass menschlicher Kontakt überhaupt wieder möglich ist, ohne dass Tempo oder Ergebnis darunter leiden.
Was ich mir für Moselwal vorstelle, ist das, was man ein bisschen altmodisch „uncommon service“ nennen könnte: Kunden, die mich oder das Team direkt erreichen, wenn es nötig ist. Antworten, die persönlich sind und nicht aus einem Macro-Template fallen. Termine mit echtem Vorbereitungsaufwand, nicht mit „lass mich kurz das CRM aufmachen, wer waren Sie nochmal?“. Probleme, die sich nicht in einem Ticket-Funnel verlaufen, sondern bei jemandem landen, der den Kontext kennt.
Das ist heute für viele Mittelständler ein Aufwands-Argument: Persönlich-präzise Kommunikation kostet Zeit, Zeit kostet Geld, also wird das delegiert, automatisiert oder weggespart. Mit der KI-Schicht kippt diese Rechnung. Wenn die agentic Schicht den Kontext zusammenträgt, die Vorbereitung erledigt, die Recherche im eigenen Datenbestand übernimmt und das Routine-Reporting allein produziert — dann bleibt Mensch-Zeit übrig für genau die Momente, in denen sie den Unterschied macht. Begrüßung, Zuhören, Nachdenken, schwierige Entscheidungen, ungewöhnliche Situationen.
Ich habe nicht vor, Moselwal zu einer Agentur zu bauen, in der Kunden mit Bots reden. Ich habe vor, eine Agentur zu bauen, in der Kunden mit Menschen reden, die durch eine gute KI-Schicht entlastet sind — und genau deshalb mehr Zeit haben, gut hinzuhören. Das ist für mich der eigentliche Sinn der ganzen Übung.
Was ich nicht mitmache
Den Hype, der gerade um „AI-Agents“ und „autonomous workflows“ gemacht wird, finde ich operativ unbrauchbar. Wer Agenten ohne Kontrolle in Produktion lässt, wird die Konsequenzen tragen. Wer Customer-Service-Bots ohne Eskalations-Pfad einsetzt, verliert die Kunden, die er behalten wollte. Wer Engineering-Agenten ohne Code-Review in den Stack einbettet, baut sich technische Schulden mit eigener Geschwindigkeit ein.
Die ehrlichere Bezeichnung dessen, was heute funktioniert, ist Agentic Engineering: KI als Co-Pilot mit menschlicher Klammer, nicht als autonomer Bot. Diese Klammer kostet Disziplin und ein bisschen Skepsis gegenüber den eigenen Ergebnissen. Aber sie ist die einzige Konfiguration, in der ich am Ende des Tages noch verstehe, was ich gebaut habe.
Was Diana Hu mir zurückgegeben hat
Eine Klarheit darüber, dass die Frage nicht ist: „Setzen wir KI ein?“ Wir setzen sie ein, jeden Tag, an vielen Stellen. Die Frage ist: Bauen wir die Datenschicht und die Prozess-Klammern, die nötig sind, damit die KI nicht nur an einzelnen Stellen hilft, sondern als kohärente Schicht über das ganze Unternehmen liegen kann?
Ich denke, das ist die nächste Disziplin-Stufe für eine Mittelstands-Agentur. Wer das in den nächsten zwei bis drei Jahren ernsthaft baut, wird wahrscheinlich strukturell anders unterwegs sein als wer wartet, bis das Tooling sich „beruhigt“ hat. Und ich habe nicht vor, zu warten.
Quelle: Y Combinator Startup School — How To Build A Company With AI From The Ground Up (Diana Hu).
Wenn dich das Thema interessiert
Wenn du selbst gerade vor einer ähnlichen Entscheidung stehst oder einfach die Diskussion suchst — schreib mir, wir reden in Ruhe darüber. Kein Pitch, kein Sales-Funnel, ein ehrliches Gespräch.