18 Min. Lesezeit

Was ist eigentlich ein AI-ready CMS?

Die meisten CMS wurden für Redakteure und Suchmaschinen gebaut — nicht für AI-Systeme. Doch mit ChatGPT, Claude und AI Search verändert sich gerade grundlegend, wie Inhalte gefunden, verarbeitet und genutzt werden. Wir definieren AI-ready technisch — nicht marketingig.

Walnuss-Schreibtisch mit antiquem Setzkasten (vier Fächer voller Bleilettern), geöffneter Brass-Karteikassette mit Kraftpaper-Tags, messingfarbener Lupe und einem aufrecht gestellten Oxblood-Wachssiegel-Etikett; im Hintergrund die Glasfront eines modernen Moselhauses mit sonnigem Weinberg-Hang — visuelle Metapher für die vier Schichten eines AI-ready CMS: strukturierte Inhalte, semantische Auslieferung, Agent-Interaktion und Vertrauen.

TL;DR — die 90-Sekunden-Zusammenfassung

Was heißt AI-ready?

Ein AI-ready CMS stellt Inhalte strukturiert, semantisch klar und maschinenlesbar bereit. Entscheidend sind APIs, Taxonomien, strukturierte Inhalte, Governance, Zugriffskontrolle und langfristige Portabilität — nicht nur AI-Features im Backend.

Was es nicht ist

Kein Chatbot-Plugin, kein Editor-AI-Assistent, kein „GPT im Backend“-Feature. Diese Lösungen sind UI-Add-ons; ein AI-ready CMS ist eine Daten- und Auslieferungs-Disziplin.

Die vier Schichten

1) Structured Content — semantische Annotation, Taxonomien und Vererbung. 2) Semantic Delivery — Multichannel-Auslieferung an Web, Agent, Voice, Social. 3) Agent-Interaktion — Tool-API direkt im Browser via WebMCP. 4) Vertrauen & Governance — Provenance-Signaturen, AI-Readiness-Score, Audit-Trail, Versionierung.

Open Source wird strategisch

Sobald KI-Vermittler Ihre Inhalte zitieren, wird Content-Portabilität zur Standortfrage. Geschlossene CMS-Stacks koppeln Sie an die Roadmap eines Anbieters; Open-Source-Schichten bleiben unter Ihrer Kontrolle — das verbindet CMS, Souveränität und KI-Strategie zu einer Architektur-Entscheidung.

Wie wir das lösen

Wir setzen die vier Schichten in TYPO3 14 mit sieben Open-Source-Erweiterungen um. Ergebnis 100/100 im Cloudflare-Agent-Readiness-Score — mehr Beleg, dass die Definition trägt, weniger Verkaufsargument.

Für wen es jetzt relevant ist

Mittelständler mit strukturierten Inhalten (Produkt-Stammdaten, Service-Beschreibungen, Wissensartikel), die in 12–18 Monaten KI-Agenten in den Kundendialog, das Vertriebs-Briefing oder die interne Suche integrieren werden. Aus dem Bestand-CMS heraus: 6–9 Monate gestaffeltes Engagement, kein Big-Bang-Rewrite.

 

Warum klassische CMS nicht für AI gebaut wurden

Content-Management-Systeme sind in den 2000er Jahren für zwei Zielgruppen entstanden: Redakteure, die Inhalte pflegen, und Suchmaschinen, die sie indexieren. Beide haben spezifische Bedürfnisse — die ein KI-System nicht teilt.

Was Redakteure brauchen

Strukturierte Eingabemasken, Versionierung im UI-Sinn, Vorschau, Workflow-Freigaben, Mehrsprachigkeit. Das CMS-Datenmodell ist optimiert auf Bearbeitbarkeit: jeder Inhalt liegt als atomare Editor-Einheit vor, die ein Mensch öffnen, anpassen und freigeben kann.

Was Suchmaschinen brauchten

Saubere HTML-Struktur, Meta-Description, sitemap.xml, kanonische URLs. Das hat einen Jahrzehnt-Markt geprägt: SEO-Plugins, Title-Optimierer, Schema.org-Add-ons als Aufkleb-Felder. Die Annahme: Google liest die Seite, indexiert sie, schickt User vorbei.

Was AI-Systeme brauchen — und was klassische CMS nicht mitliefern

Die Folge in der Praxis

Wer 2026 sein klassisches CMS einem LLM-Retrieval-System hinwirft, bekommt entweder schlechte Antworten (halluzinierende Chunks, weil die Struktur fehlt) oder gar keine Antworten (weil der Crawler die Inhalte nicht zuordnen kann). Das ist kein CMS-Versagen — es ist eine Architektur, die nicht für diese Anforderung gebaut wurde. AI-ready heißt: die fehlenden Schichten zusätzlich bereitstellen, ohne dass das Editorial-Team das Backend neu lernen muss.

Wie AI-Systeme Inhalte konsumieren

Ein KI-Agent oder ein RAG-System liest Ihre Inhalte nicht wie ein Browser. Wer ein AI-ready CMS bauen will, muss verstehen, was der Konsument auf der anderen Seite tut.

Crawling: was der Agent zuerst abfragt

Moderne KI-Crawler (Cloudflare AI Crawl Agent, Anthropic-User-Agent, OpenAI-Bot, Perplexity-Crawler) gehen nicht mehr nur über sitemap.xml. Sie suchen nach /.well-known/llms.txt-Manifesten, Schema.org-JSON-LD im DOM, openapi-Endpoints und MCP-Discovery-Routen. Wenn Sie diese Endpunkte fehlen lassen, finden die Agenten Ihren Content seltener — unabhängig von Ihrer SEO-Position.

Chunking: wie der Inhalt zerlegt wird

Bevor Inhalte in eine Vektor-Datenbank wandern, werden sie in Chunks zerlegt — typischerweise 200–1.000 Tokens. Die Frage ist: wo wird geschnitten? Wenn das CMS keine semantischen Grenzen liefert (klare H2/H3-Hierarchie, abgeschlossene Sektionen), schneidet der Tokenizer mitten in Tabellen, listet Code-Blöcke halb, zerreisst Definitionen. Die Folge: schlechte Retrieval-Treffer.

Embeddings: wie der Inhalt vektorisiert wird

Jeder Chunk wird zu einem Vektor (typischerweise 1.024–3.072 Dimensionen). Inhalte mit klarer Heading-Struktur, expliziten Audience-Tags und sauberen Zitaten produzieren distinkte Embeddings, die in der Ähnlichkeitssuche präzise treffen. Inhalte mit Editorial-Marketing-Sprache („Passgenaue Lösungen für Ihr Business“) produzieren matschige Vektoren, die zu allem und nichts passen.

Retrieval: wie der Agent eine Antwort baut

Bei einer User-Frage berechnet das System einen Query-Vektor, sucht die nächstgelegenen Chunks in der DB und reicht sie dem LLM als Kontext. Das LLM antwortet mit Bezug auf die abgerufenen Chunks („laut Inhalt X…“). Wenn Ihre Chunks gut sind: das LLM zitiert Sie korrekt. Wenn sie schlecht sind: das LLM halluziniert auf Basis seines Trainingswissens, weil der Kontext nicht ausreichend war.

Interaction: wenn der Agent handeln will

Read-Only ist die einfache Hälfte. Sobald der Agent eine Aktion auslösen soll (Anfrage senden, Termin buchen, Suche verfeinern), braucht er eine deklarative Tool-API. Das Model Context Protocol (MCP) hat sich dafür als Standard etabliert; im Browser übernimmt der WebMCP-Layer die Brücke zwischen dem im User-Browser laufenden Agenten und den CMS-Operationen.

Die Konsequenz für die CMS-Architektur

Jeder dieser Schritte stellt eine spezifische Anforderung an die Datenschicht. Die folgenden vier Schichten beantworten sie systematisch — nicht als KI-Feature, sondern als Datenmodell- und Auslieferungs-Disziplin.

Eigenschaften eines AI-ready CMS — die vier Schichten

Ein AI-ready CMS lässt sich technisch zerlegen in vier Schichten. Jede Schicht beantwortet eine der oben genannten Anforderungen — strukturierte Inhalte, retrieval-fähige Auslieferung, Tool-API für Agenten, Vertrauen und Governance. Wer die vier Schichten hat, hat keine „AI-Features“, sondern eine Plattform-Eigenschaft.

Schicht 1 — Structured Content: semantische Annotation und Vererbung

Die unterste Schicht ist die semantische Anreicherung. Klassische CMS-Felder (Titel, Bodytext, Meta-Description) beschreiben den Inhalt aus Editor-Sicht. Für ein Retrieval-System reicht das nicht: der Agent braucht Kontext, der eine Stufe tiefer geht.

Was technisch passieren muss

Wie wir das in TYPO3 umsetzen

In unserem Stack übernimmt das die Erweiterung structured-content: Schema.org-JSON-LD wird automatisch im Frontend gerendert, AI-Context-Felder cascaden durch die Seiten-Hierarchie, der Editor sieht nur wenige zusätzliche Felder im Backend.

Schicht 2 — Semantic Delivery: Multichannel-Auslieferung

Sobald die Inhalte annotiert sind, müssen sie an die richtigen Channel ausgespielt werden — nicht nur an den Browser. KI-Agenten lesen über andere Kanäle als Menschen.

Die vier Channel-Klassen

Wie wir das in TYPO3 umsetzen

In unserem Stack erledigt das die Erweiterung semantic-delivery: Inhalte werden channel-spezifisch transformiert, llms.txt und Discovery-Manifeste werden automatisch aktuell gehalten, Channel-Adapter für Web, AI Agent, Voice und Social-Media sind austauschbar gestaltet.

Schicht 3 — Agent-Interaktion: Tool-API direkt im Browser

Read-Only ist die einfache Hälfte. Sobald ein Agent handeln soll — eine Anfrage anlegen, einen Termin buchen, eine Suche verfeinern — braucht das CMS eine Tool-API. Das Model Context Protocol (MCP) hat sich Anfang 2026 als Standard dafür etabliert.

Was technisch passieren muss

Wie wir das in TYPO3 umsetzen

In unserem Stack ist das die Erweiterung webmcp: Built-in-Tools für Search, Navigation, Page-Content und Form-Submission stehen zur Verfügung; eigene Tools werden über ein ToolProviderInterface registriert. Eine separate REST-API für Agenten wird nicht benötigt.

Schicht 4 — Vertrauen und Governance

Die letzte Schicht ist die, die viele überhaupt nicht auf dem Schirm haben — und die zugleich der größte Marken-Differenzierer wird, sobald KI-vermittelte Antworten die Norm sind.

Drei Sub-Disziplinen

Wie wir das in TYPO3 umsetzen

In unserem Stack zwei Erweiterungen: content-provenance für Ed25519-Signaturen, content-intelligence für Quality-Gates, AI-Readiness-Score, Brand-Voice-Konsistenz und Audit-Trail.

Orchestrierung — wenn der Agent in mehreren Schritten denken muss

Die vier Schichten beschreiben das CMS aus statischer Sicht. Für produktive Use Cases kommt eine fünfte Disziplin dazu, die quer durch die Schichten geht: Orchestrierung von mehrstufigen Workflows.

Wo es ohne nicht geht

Ein Beispiel aus der Praxis: Ein Interessent fragt nach einem Service-Briefing. Der Agent muss (1) die relevanten Service-Inhalte aus der RAG-Pipeline ziehen, (2) eine personalisierte Zusammenfassung generieren, (3) den Editor um Freigabe bitten, (4) eine PDF erzeugen, (5) per E-Mail versenden, (6) ein CRM-Ticket anlegen. Das passt nicht in einen einzelnen Prompt — dafür braucht es eine Workflow-Engine, die einzelne Steps koordiniert, blockt, wartet, wieder aufnimmt.

Was technisch passieren muss

Wie wir das in TYPO3 umsetzen

In unserem Stack zwei Erweiterungen: ai-workflows als deklarative YAML-Engine mit persistenter State-Verwaltung; business-agent als RAG-Pipeline-basierter Conversational Layer mit Access-Class-Routing und einbettbarem Chat-Widget. Der Agent ist nicht das CMS, sondern der Frontend-Konsument der vier Schichten.

Warum Open Source plötzlich strategisch wird

Die vier Schichten und die Orchestrierungs-Engine könnten Sie theoretisch von einem proprietären Anbieter zukaufen. Praktisch wird das in den nächsten 12–18 Monaten zum größten Architektur-Fehler, den ein Mittelständler treffen kann — und zwar nicht aus Lizenz-Romantik, sondern aus drei konkreten Gründen.

Content-Portabilität wird zur Standortfrage

Sobald KI-Vermittler (Claude, ChatGPT, Perplexity, Voice-Agenten) Ihre Inhalte zitieren und weiterverarbeiten, wird die Frage „unter wessen Kontrolle sind meine semantischen Annotationen?“ entscheidend. Mit einem proprietären Stack bestimmt der Anbieter, was als Audience-Tag, als Channel-Marker, als Provenance-Signatur akzeptiert wird — und ob er das Schema morgen ändert. Mit Open-Source-Schichten gehört das Datenmodell Ihnen.

Standards bewegen sich schneller als Anbieter-Roadmaps

Schema.org, MCP, llms.txt, Provenance-Standards (C2PA, JSON-LD-Signed) entwickeln sich seit Anfang 2026 in Monatsabständen. Ein proprietärer CMS-Anbieter, der diese Standards über Plugin-Updates einfüttert, hängt strukturell immer drei bis sechs Monate hinterher — weil er einen Release-Zyklus dazwischen hat. Open-Source-Pakete sind direkt am Standard.

Souveränität wird vom EU AI Act eingefordert

EU AI Act Artikel 50, NIS2, CRA und der BSI-Praxisleitfaden für Plattform-Komponenten machen Transparenz über den Stack zur regulatorischen Anforderung. Wer mit einem proprietären KI-Stack arbeitet, kann seine Lieferkette nicht vollständig dokumentieren. Open Source ist hier kein Bonus, sondern eine Compliance-Erleichterung — plus die Option, EU-souverän zu betreiben, ohne an die Roadmap eines einzelnen Anbieters gebunden zu sein.

Was das für die Architektur-Entscheidung bedeutet

Wer die vier Schichten als Open-Source-Stack baut, kombiniert vier verbundene Eigenschaften in einer einzigen Entscheidung: AI-readiness, CMS-Kontrolle, Open Source, digitale Souveränität. Das ist nicht vier Probleme lösen, sondern ein Problem so lösen, dass die anderen drei mitlaufen.

Was unterscheidet das von einem „AI-Feature“-Add-on?

Die meisten CMS-Anbieter rufen Anfang 2026 ihre KI-Features aus: Editor-Assistent, Auto-Summary-Plugin, Alt-Text-Generator, Frage-Antwort-Chatbot. Das ist nicht falsch, aber es löst ein anderes Problem.

Drei Achsen-Differenz

AchseAI-Feature-Add-onAI-ready CMS
Wer profitiert?Editor (interner Workflow)Endkunde, Agent, KI-Crawler (externe Konsumenten)
Wie wird Wert erzeugt?Editor schneller / produktiverInhalt wird in neuen Kanälen auffindbar und nutzbar
Was passiert ohne LLM?Feature ist totCMS läuft normal, ist nur weniger „retrieval-tauglich“
Wer entscheidet über den Stack?Plugin-AnbieterPlattform-Betreiber
Wie reagiert es auf KI-Markt-Verschiebung?Plugin muss erneuert/ersetzt werdenSchichten bleiben stabil, KI-Konsumenten austauschbar

Warum das ein Architektur-Argument ist

Wer im Mai 2026 ein Auto-Summary-Plugin in TYPO3 installiert, hat dieselbe Diskussion in zwölf Monaten erneut, wenn das LLM-Modell wechselt oder der Anbieter abgeschaltet wird. Wer in dieselbe Zeit die vier Schichten baut, hat eine Plattform, die mit Claude, GPT-5, Llama 4, einem hauseigenen Mistral-Fine-Tune oder einem Voice-Agent gleich gut umgeht — weil die Datenschicht stabil ist, nicht der Verbraucher.

Anders gesagt: AI-Features sind eine UI-Schicht. AI-readiness ist eine Daten- und Auslieferungs-Schicht. Wer beides verwechselt, baut zweimal.

Was Unternehmen jetzt tun sollten

Wer den Begriff bis hier verstanden hat, hat noch keine Roadmap. Die folgenden vier Schritte sind unsere Standard-Empfehlung für Mittelständler, die in den nächsten 12 Monaten AI-ready werden wollen.

Schritt 1: Standortbestimmung in einer Woche

Vier Fragen ehrlich beantworten:

  1. Können Sie für drei beliebige Seiten Ihrer Website die Zielgruppe (Kunde / Partner / Intern / Entwickler) und den Ton (informativ / werblich / technisch / rechtlich) in einem Satz benennen?
  2. Gibt es einen standardisierten Discovery-Endpunkt (/.well-known/llms.txt oder Schema.org-JSON-LD im DOM) auf Ihrer Hauptseite?
  3. Können Sie für einen Inhalt sagen, wer ihn wann freigegeben hat — und das auch kryptografisch nachweisen, wenn jemand fragt?
  4. Wenn ein KI-Agent eine Anfrage zu Ihrem Service stellt: über welchen Channel kommt die Antwort, und ist sie in einer Form, die der Agent ohne Nachinterpretation an den User weitergeben kann?

Vier „Ja“ = AI-ready. Drei = ein bis zwei Schichten fehlen. Zwei oder weniger = Startpunkt der Plattform-Reise.

Schritt 2: Schicht 1 zuerst — Structured Content

Bevor irgendetwas anderes Sinn macht: das CMS-Datenmodell um die AI-Context-Felder erweitern (Audience, Tone, Channels), Schema.org-JSON-LD im Frontend rendern, eine erste /.well-known/llms.txt bauen. Editorial-Belastung: minimal, weil die Felder cascaden. Dauer: typischerweise 6–8 Wochen, abhängig von Datenmodell-Stand.

Schritt 3: Channel-Strategie klären, bevor Schicht 2 startet

Multichannel-Auslieferung lohnt sich nur dort, wo es Konsumenten gibt. Prüfen Sie für Ihre Branche:

Erst dann die Adapter aktivieren, die einen Konsumenten haben. Sonst betreiben Sie Channels für niemanden.

Schritt 4: Vertrauen ist kein Nice-to-have

Provenance-Signaturen, AI-Readiness-Scoring und Audit-Trail werden in den nächsten 12 Monaten regulatorisch und reputativ relevant. Wer hier spät startet, baut die Schicht im Stress; wer rechtzeitig startet, hat sie als Standardprozess. Empfehlung: spätestens parallel zur Schicht 2, nicht später.

Was nicht zuerst gemacht werden sollte

Auto-Summary-Plugins, Editor-AI-Assistenten, GPT-Backend-Integrationen. Das sind UI-Features, die Sie später problemlos aufkleben können — wenn das Fundament steht. Wer hier zuerst investiert, hat in 12 Monaten ein Plugin, das ersetzt werden muss, und kein Plattform-Fundament. Das ist die teure Reihenfolge.

Was wir bei Moselwal konkret tun

Sieben Open-Source-Erweiterungen, eine Architektur

Wir setzen die vier Schichten in TYPO3 14 mit sieben Erweiterungen um — jeweils einer Schicht (plus Orchestrierung) zugeordnet:

Schicht für Schicht statt Big-Bang

Ein typisches Plattform-Engagement bei uns sieht so aus:

  1. Monat 1–2: Bestandsaufnahme + Schicht 1 (Structured Content). Bestehendes Datenmodell wird um AI-Context-Felder erweitert, erste Schema.org-Annotation im Frontend, JSON-LD im DOM, llms.txt-Endpunkt.
  2. Monat 3–4: Schicht 2 (Semantic Delivery). Multichannel-Adapter aktivieren — zunächst Web/llms.txt/RSS, später Voice und Social-Channel je nach Bedarf.
  3. Monat 5–6: Schicht 3 (Agent-Interaktion). WebMCP-Integration im Frontend, erste Custom-Tools für branchen-spezifische Operationen.
  4. Monat 7–9: Schicht 4 (Vertrauen) plus Business-Agent (falls Conversational Use Case vorhanden). Provenance-Signaturen aktivieren, AI-Readiness-Dashboard, Audit-Trail-Logging.

Belegt im Cloudflare-Score

Cloudflare hat im April 2026 den Agent-Readiness-Score gestartet — eine Lighthouse-artige Bewertung dafür, wie gut eine Website von KI-Agenten genutzt werden kann. moselwal.de hat den Test mit 100/100 bestanden. Bei Bestandskunden ist der typische Ausgangswert 30–50; nach Schicht 1 sind wir bei 60–70; nach Schicht 4 bei 90–100.

Open-Source-Stand

Die sieben Pakete sind unter MIT-Lizenz entwickelt; der öffentliche Composer-Release ist in Vorbereitung. Aktuell setzen wir sie im Rahmen von Plattform-Engagements ein.

Häufige Fragen zum AI-ready CMS

Brauche ich dafür ein neues CMS oder kann das mit TYPO3-Bestand?+

Mit Bestand. Alle vier Schichten sind als TYPO3-Erweiterungen umsetzbar, ohne dass das Editorial-Team auf ein neues System umziehen muss. Der Editor sieht weiterhin sein Backend, ein paar zusätzliche Felder im Daten-Tab, sonst wenig. Big-Bang-Migrationen sind im AI-Kontext besonders riskant, weil das Lernfeld ohnehin neu ist — wir empfehlen Schicht-für-Schicht-Ausbau auf dem bestehenden CMS.

Was kostet ein AI-ready-Umbau aus dem Bestand heraus?+

Ein Plattform-Engagement über alle vier Schichten dauert typischerweise 6–9 Monate und liegt im mittleren fünfstelligen bis unteren sechsstelligen Bereich, abhängig vom Datenmodell-Stand und der gewünschten Channel-Breite. Wer nur Schicht 1+2 will (Discoverability/Retrievability ohne Agent-Interaktion), kommt mit 3–4 Monaten und entsprechend weniger Aufwand aus. Kein Plugin-Lizenz-Modell, kein Per-User-Pricing — die Pakete sind Open Source.

Wenn die LLM-Anbieter ihre Modelle ändern — muss ich dann nicht alles neu bauen?+

Nein, das ist gerade der Punkt der Architektur-Entscheidung. Die vier Schichten sind LLM-agnostisch — sie liefern strukturierte Daten an einen beliebigen Konsumenten. Wenn Sie heute mit Claude arbeiten und in einem Jahr auf Mistral, GPT-6 oder einen hauseigenen Fine-Tune wechseln, muss am CMS nichts ändern. Genau das ist der Unterschied zu einem KI-Feature-Plugin, das von einer spezifischen API-Version abhängt.

Warum spielt Open Source bei einem AI-ready CMS so eine zentrale Rolle?+

Weil Sie sich sonst an die Roadmap und das semantische Modell eines einzelnen Anbieters koppeln — zu einem Zeitpunkt, an dem sich die Standards (Schema.org, MCP, llms.txt, C2PA-Provenance) im Monatsabstand bewegen. Open-Source-Schichten halten das Datenmodell unter Ihrer Kontrolle, sind direkt am Standard und erleichtern EU-AI-Act- und CRA-Compliance. Für Mittelständler, die in 12–18 Monaten KI-Agenten produktiv einsetzen wollen, ist das nicht Ideologie, sondern Risikomanagement.

Wie messe ich, ob mein CMS AI-ready ist — ohne ein Beratungsprojekt?+

Drei Sofort-Prüfungen: (1) curl ihre-domain.de/.well-known/llms.txt — wenn 404, fehlt Schicht 2. (2) Browser-DevTools auf einer beliebigen Inhaltsseite, im Source nach application/ld+json suchen — wenn leer oder nur generisch, fehlt Schicht 1. (3) Cloudflare-Agent-Readiness-Score Beta auf der Hauptseite laufen lassen — unter 60 von 100 heißt: mehrere Schichten fehlen. Diese drei Checks dauern 15 Minuten und sagen Ihnen, wo Sie stehen.

Fazit

AI-ready ist kein Marketing-Etikett und kein Plugin. Es ist eine Plattform-Disziplin, die vier Schichten umfasst: strukturierte Inhalte mit Audience- und Channel-Annotation, retrieval-fähige Multichannel-Auslieferung, eine Tool-API für Agenten im Browser, plus Provenance und Governance. Wer diese Schichten hat, hat einen CMS-Stack, der mit Claude, GPT-6, einem Voice-Agent oder dem nächsten KI-Konsumenten gleich gut umgeht — weil die Datenschicht stabil ist, nicht der Verbraucher.

Für Mittelständler mit strukturierten Inhalten lohnt sich der Umbau in den nächsten 12 Monaten besonders. Für alle anderen ist es eine bewusste Architektur-Entscheidung mit Zeithorizont von 18–24 Monaten. Open Source ist dabei kein Nice-to-have, sondern die Standort-Garantie für das eigene Datenmodell — zu einem Zeitpunkt, an dem AI-Standards monatlich nachschieben. Wer jetzt die vier Schichten baut, hat in 12 Monaten eine Plattform; wer jetzt ein KI-Plugin installiert, hat in 12 Monaten dieselbe Frage erneut.

AI-ready, betreibbar, souverän — nicht als Feature, sondern als Plattform-Disziplin.

Wir unterstützen Mittelständler dabei, ihre Plattformen langfristig AI-ready, betreibbar und souverän aufzubauen — mit Open Source, DevSecOps und strukturierter Content-Architektur. Aus dem Bestand-CMS heraus, gestaffelt über 6–9 Monate, ohne Big-Bang-Migration. Sprechen Sie uns an, wenn Sie den nächsten Schritt in Richtung der vier Schichten gehen wollen.

Autor dieses Beitrags

Foto von Kai Ole Hartwig.

Kai Ole Hartwig

Founder · Moselwal Digitalagentur · OnlyOle

Programmiert seit 2002 – autodidaktisch gelernt, 2012 mit KO-Web selbständig gemacht, heute Moselwal. Über 100 Projekte, Fokus auf Security, Performance, Automatisierung und Qualität.