Google sagt: keine llms.txt nötig — und warum das nur die halbe Wahrheit für ein AI-ready CMS ist
Google hat am 15. Mai 2026 seinen offiziellen Optimization-Guide für generative AI Search veröffentlicht. Die kurze Version: AEO und GEO sind aus Google-Sicht weiterhin SEO. Die etwas längere Version: was Google für Google-AI gilt, gilt nicht zwingend für Claude, Perplexity oder Voice-Agents. Wir ordnen den Guide ein — und zeigen, wo unser Cloudflare-Agent-Readiness-Score von 100/100 trotzdem die richtige Messlatte bleibt.

TL;DR — die 90-Sekunden-Zusammenfassung
- Was sagt Google am 15. Mai 2026?
Ein offizieller Guide: „Optimizing for generative AI features on Google Search“. Kernbotschaft: AEO/GEO sind aus Google-Sicht weiterhin SEO. Keine llms.txt nötig, kein Chunking nötig, Schema.org optional. Foundational-SEO + non-commodity Content reichen.
- Wo stimmt das?
Für Google Search inklusive AI Overviews und AI Mode: ja. Googles Retrieval-augmented-Generation greift auf Googles eigenen Index zu, der die normalen Such-Ranking-Systeme als Basis nutzt. RAG läuft über den klassischen Crawl + Index.
- Wo ist das nur die halbe Wahrheit?
Außerhalb von Google. Claude (Anthropic), Perplexity, OpenAI-Crawler, Voice-Agents, Telefonbots, browser-native MCP-Konsumenten, der kommende Universal Commerce Protocol (UCP) — die fragen nicht bei Google nach. Sie crawlen llms.txt-Manifeste, lesen Schema.org-JSON-LD direkt im DOM, rufen MCP-Tool-Listen ab. Wer nur Google bedient, ist für diese Konsumenten unsichtbar.
- Was heißt das für unseren AI-ready-CMS-Ansatz?
Unsere vier Schichten (Structured Content, Semantic Delivery, Agent-Interaktion, Vertrauen) bauen genau die Discovery- und Delivery-Endpunkte, die Google nicht braucht — aber Claude, Perplexity und der Voice-Agent eines Mittelständlers schon. Cloudflare-Agent-Readiness-Score 100/100 misst diesen Stack — nicht Googles Ranking.
- Eine wichtige Übereinstimmung
Google sagt explizit: erkundet die agentic experiences, die Browser-Agents werden relevant. Universal Commerce Protocol wird namentlich genannt. Genau das ist der Punkt, an dem MCP-Tool-API und Agent-Interaktion auch für Google-vermittelte Use Cases wichtig werden.
- Empfehlung im Mittelstand
Beides bauen. Google-Basics (Foundational SEO, non-commodity Content, Page Experience) sind und bleiben Pflicht. Zusätzlich die AI-ready-Schichten für die wachsende Nicht-Google-Welt — inklusive llms.txt, die Google für sich selbst zwar ausschließt, die anderswo aber Standard wird.
Was Google am 15. Mai 2026 konkret sagt
Der neue Guide unter developers.google.com/search/docs/fundamentals/ai-optimization-guide ist relativ schlank — und das ist Teil seiner Botschaft. Die wichtigsten Aussagen, fast wörtlich:
SEO ist weiterhin relevant für generative AI Search
Googles AI-Features in Search stützen sich auf die klassischen Search-Ranking- und -Quality-Systeme. Zwei Mechanismen werden namentlich erklärt:
- Retrieval-augmented generation (RAG) — die Antwortqualität wird verbessert, indem die Such-Ranking-Systeme relevante, aktuelle Web-Seiten aus dem Google-Index ziehen und an das Modell als Kontext geben.
- Query fan-out — das Modell generiert mehrere parallele Sub-Queries („how to fix a lawn that’s full of weeds“ → „best herbicides“, „remove weeds without chemicals“, „prevent weeds in lawn“), um umfassendere Antworten zu bauen.
Beide Mechanismen liegen auf dem Google-Index. Wer nicht im Index ist, taucht in den AI Overviews nicht auf. Wer gut im Index ist, hat dieselben Chancen wie schon zu pre-AI-Zeiten.
AEO und GEO sind aus Google-Sicht weiterhin SEO
Wortwörtlich: „From Google Search’s perspective, optimizing for generative AI search is optimizing for the search experience, and thus still SEO.“ Was Google damit explizit sagt: keine separaten Disziplinen, keine eigenen Konferenz-Tracks, kein „GEO-Framework“ neben SEO. Für Google.
Die SEO-Basics, die unverändert gelten
- Non-commodity Content mit unique Point of View, Erfahrung und Tiefe — nicht recyceltes Allgemeinwissen.
- People-first Content, der die Frage befriedigend beantwortet, statt alle möglichen fan-out Queries einzeln zu bedienen (was Google explizit als Spam markiert).
- Klare technische Struktur — indexierbar, crawl-tauglich, mit valid HTML („perfekt nicht nötig, aber lesbar hilft“).
- Page Experience — Core Web Vitals, mobile, schnelle Auslieferung.
- Bilder + Videos in guter Qualität mit Alt-Texten und Video-Markup.
- Local-Business-Daten via Google Business Profile / Merchant Center.
Was Google explizit als unnötig markiert
Hier wird der Guide ungewöhnlich direkt:
- llms.txt-Dateien und andere „special markup“: „You don’t need to create new machine-readable files, AI text files, markup, or Markdown to appear in generative AI search.“ Google verarbeitet HTML wie immer.
- Chunking: „There’s no requirement to break your content into tiny pieces for AI to better understand it.“ Google versteht laut eigener Aussage Multi-Topic-Pages.
- Spezielles Rewriting für AI: nicht nötig.
- Inauthentische Mentions: kein Hebel.
- Überfokus auf strukturierte Daten: nicht required, aber als Teil der SEO-Strategie weiterhin sinnvoll (Rich Results).
Wo Google explizit „in die Zukunft“ verweist
Am Ende des Guides, fast nebenbei: Agentic experiences. Browser-Agents (DOM-Inspection, Accessibility-Tree, Visual-Rendering) werden namentlich genannt. Das Universal Commerce Protocol (UCP) wird verlinkt als emerging Protocol, das Search-Agents mehr erlauben wird. Google empfiehlt: „If this is something that’s relevant to your business and you have extra time, check out the available agentic experiences.“
Auch Google sieht: die nächste Stufe ist nicht mehr nur Indexieren-und-Antworten, sondern Agent ruft Tool auf. Dort wird der Punkt interessant.
Wo Googles Guide gilt — und wo er nur einen Teil der Wahrheit zeigt
Der Guide ist sauber, ehrlich und intern konsistent. Er hat aber eine starke Voraussetzung, die Google selbst nirgends explizit ausspricht: er beschreibt das KI-Verhalten von Google. Andere Konsumenten verhalten sich anders — strukturell, nicht konjunkturell.
Was für Google gilt
Googles AI Overviews und AI Mode greifen auf Googles Index zu. Google hat einen ausgereiften Crawler, der HTML semantisch versteht, Multi-Topic-Pages chunked, Schema.org optional auswerten kann und auch ohne llms.txt-Manifest auskommt. Aus dieser Position heraus ist der Guide korrekt: keine Sonder-Markup-Pflicht, kein Sonder-Chunking, kein AI-Rewriting.
Was für die anderen Konsumenten nicht gilt
Die KI-Welt 2026 besteht nicht nur aus Google. Die wichtigsten anderen Konsumenten Ihrer Inhalte:
- Anthropic Claude mit Web-Browsing und MCP-Toolchain — nutzt llms.txt, JSON-LD, MCP-Discovery-Routen.
- Perplexity als eigene KI-Search-Engine — nutzt Schema.org-JSON-LD prioritär und unterstützt llms.txt seit Q1 2026 explizit.
- OpenAI/ChatGPT mit Browsing und Operator — nutzt eigenen Crawler (OAI-SearchBot), respektiert llms.txt-Direktiven.
- Voice-Agents (Smart Speaker, Telefonbot-Plattformen) — brauchen sprechfähige Auszug-Versionen, die ein normales Web-HTML nicht liefert.
- Browser-native MCP-Konsumenten — Browser-Erweiterungen, in-App-Agents, die
navigator.modelContextabfragen, Tool-Discovery erwarten und User-Aktionen auslösen wollen. - Internal-Search-/RAG-Pipelines Ihrer eigenen Kunden, Lieferanten, Partner — die ggf. Ihren Content in eigene Vektor-Datenbanken einspeisen.
Die Asymmetrie
Wer nur Googles Guide befolgt, ist im Google-Universum optimal aufgestellt. Wer auch von den anderen Konsumenten gefunden, korrekt zitiert und in Tool-Calls eingebunden werden will, braucht zusätzlich die Schichten, die Google ausdrücklich „nicht braucht“. Das ist keine Kritik am Google-Guide — das ist die Antwort auf eine Frage, die Google nicht beantwortet hat.
Die Trendlinie
Der Markt-Anteil von Google-Search liegt 2026 noch bei rund 85 % im DACH-Raum. Aber der relevante Indikator ist nicht der Marktanteil, sondern die Verteilung der Antwort-Quellen: Wenn ein User per Sprach-Befehl seinen Smart Speaker fragt, wenn ein Mittelständler seinen Vertriebs-Agent ein Briefing schreiben lässt, wenn ein Kunde per WhatsApp-Bot eine Produkt-Frage stellt — die Antwort kommt nicht aus Google. Sie kommt aus einem direkten LLM-Aufruf gegen Ihren Content. Und genau dort entscheidet, ob Sie llms.txt, MCP-Tools und Schema.org-JSON-LD ausgeliefert haben.
Der einzige harte technische Pflichtpunkt: IPTC DigitalSourceType für AI-Bilder
Wer den Google-Guide aufmerksam liest, findet eine fast versteckte Stelle, an der Google ungewöhnlich konkret wird: die Bildkennzeichnung für KI-generierte Inhalte. Hier macht der Guide aus einer Empfehlung eine technische Pflicht.
Was Google verlangt
Für Bilder, die mit generativer KI erstellt wurden, erwartet Google das IPTC-Metadaten-Feld DigitalSourceType mit dem Wert trainedAlgorithmicMedia — eingebettet in die XMP-Sidecar-Daten der Bilddatei. Das ist kein Schema.org-Tag im DOM, kein llms.txt-Hinweis, sondern eine Datei-interne Metadaten-Eigenschaft, die jedes Bild beim Upload mitbringen muss.
Für E-Commerce kommt eine zusätzliche Regel dazu: AI-generierte Produkt-Title und -Beschreibungen müssen im Merchant-Center-Feed separat als AI-generated gelabelt werden. Für klassische Content-Sites ohne Produktdaten ist das nicht relevant.
Warum das das einzige Hard-Requirement ist
Im gesamten Guide ist das die einzige Stelle, an der Google von einer konkreten technischen Pflicht spricht. Alles andere — llms.txt, Chunking, Schema.org — ist explizit als optional oder nicht-nötig markiert. Die Bildkennzeichnung ist anders, weil Google damit eine regulatorische Brücke schlägt: EU AI Act Artikel 50 verlangt KI-Inhalts-Transparenz, und Google rendert die Bildkennzeichnung in den Search-Ergebnissen sichtbar.
Was wir bei Moselwal dazu gebaut haben
Unser content-provenance-Paket schreibt seit Phase 3 (Q1 2026) bei jedem Bild-Upload einen IPTC-XMP-Sidecar mit DigitalSourceType-Tag. Wenn der Editor im Backend ein Bild als KI-generiert markiert (Feld tx_provenance_origin = ai_generated), schreibt der IptcXmpWriter das Tag automatisch in die Datei. Die Pflicht ist damit ohne Editor-Belastung erfüllt.
Was Google damit gibt, geht über Pflicht hinaus: Die Bildkennzeichnung ist auch für nachgelagerte Systeme — Voice-Agents, Provenance-Validatoren, Reuse-Tracker — maschinell auswertbar. Ein und dasselbe Tag bedient den Google-Pflicht-Pfad und den breiteren Trust-Layer (siehe unseren Pillar zum AI-ready CMS, Schicht 4).
Was Googles Guide für unseren Compliance-Stack konkret bedeutet
Wir haben den Guide gegen unseren bestehenden AI-ready-Stack geprüft. Das Ergebnis: keine Code-Änderungen nötig, der einzige Hard-Requirement ist seit Phase 3 erfüllt, alles andere ist strategischer Hedge für die Nicht-Google-Welt.
| Komponente | Google-Relevanz | Code-Änderung? |
|---|---|---|
Phase 3 — IPTC-XMP-Writer (content-provenance) | Pflicht erfüllt: DigitalSourceType=trainedAlgorithmicMedia | Keine |
| Phase 4 — Schema.org ImageObject.creator + creditText | „Nicht required“ laut Google, aber schadet nicht; nützlich für Rich Results und Provenance-Validatoren | Bleibt |
| Phase 5 — C2PA-Signing | Google nutzt C2PA aktuell nicht für Search-Ranking; relevant für Enterprise-/Healthcare-Kunden und EU AI Act | Bleibt (Enterprise-Layer) |
semantic-delivery llms.txt-Manifest | Google ignoriert es; Anthropic, OpenAI, Perplexity lesen es teilweise; für Voice-Agent- und MCP-Konsumenten Pflicht | Bleibt (Strategic Hedge) |
| FE-Badge „AI-generiert“ | Klassisches HTML mit Schema.org-Annotation; Google indexiert es normal; User-Transparenz | Bleibt |
Was „Strategic Hedge“ hier bedeutet
Wir bauen llms.txt nicht weil Google es braucht (tut es nicht), sondern weil Anthropic, OpenAI und Perplexity es nutzen — und weil der Aufwand nahe null ist, sobald die Infrastruktur einmal steht. Sollte Google in 12 Monaten seine Position revidieren (das ist nicht ausgeschlossen, da der Guide explizit ‚agentic experiences‘ als emerging adressiert), sind wir bereits da. Sollte Google bei seiner Position bleiben, haben wir trotzdem die Nicht-Google-Konsumenten bedient.
Edge Case: E-Commerce
Wer im Merchant Center mit Produktdaten arbeitet, hat einen zusätzlichen Pflichtpunkt aus dem Google-Guide: „AI-generated product data such as title and description attributes must be specified separately and labeled as AI-generated.“ Für Sylius- oder Shopware-Stacks bedeutet das eine Feld-Erweiterung im Produkt-Modell und ein angepasster Feed-Export. Für klassische Content-Sites ohne Merchant-Center-Anbindung nicht relevant.
Eine kleine Polish-Idee aus dem Prüf-Pass
Wenn ein Bild im Backend als tx_provenance_origin = ai_generated markiert ist und der Alt-Text leer bleibt, wäre ein BE-Hint im File-Edit-Form sinnvoll — AI-Bilder ohne Alt-Text sind doppelt suboptimal: schlecht für Accessibility und schlecht für Google Image Search. Polish-Item, kein Pflicht-Backlog.
Wie unser Cloudflare-Agent-Readiness-Score 100/100 in diesen Kontext passt
Cloudflare hat im April 2026 den Agent-Readiness-Score gestartet — eine Lighthouse-artige Bewertung dafür, wie gut eine Website von KI-Agenten genutzt werden kann. Unsere moselwal.de hat im April 2026 100 von 100 Punkten erreicht (siehe unser Post zur 100/100-Bewertung) — und jeden Punkt davon hätte Google nach diesem Guide als „unnötig“ markiert.
Was misst der Score genau?
Der Cloudflare-Score prüft sieben Kategorien. Drei davon überlappen mit Googles SEO-Empfehlungen (Crawl-Tauglichkeit, Page Performance, semantisches HTML). Vier davon adressieren das, was Google explizit als unnötig markiert:
/.well-known/llms.txtmit korrekt formatiertem Manifest — Voraussetzung für eine 90+ Bewertung.- Schema.org-JSON-LD im DOM mit konsistenter Type-Annotation pro Inhaltsklasse — nicht nur Article, sondern Service, Product, FAQ, HowTo, Person, Organization passend zur Seite.
- MCP-Tool-Discovery via
/.well-known/mcp.jsonoder vergleichbarer Discovery-Route — zeigt dem Agent, welche Operationen er auslösen kann. - Stabile Section-Spine mit retrievaltauglichen Heading-Hierarchien — damit RAG-Pipelines saubere Chunks bilden, ohne in Wall-of-Text zu sliven.
Die direkte Spannung zum Google-Guide
Google sagt: „llo, du brauchst llms.txt nicht.“ Cloudflare sagt: „du wirst ohne llms.txt höchstens 70/100 schaffen.“ Wer hat recht? Beide — jeweils für ihre Welt:
- Google bewertet, was für Google-Search funktioniert. Dort ist llms.txt nicht der Hebel.
- Cloudflare bewertet, was für Agenten außerhalb von Google funktioniert. Dort ist llms.txt eine harte Anforderung.
Was unsere 100/100 in der Praxis bedeutet
Konkret: Wenn ein User einen Anthropic-Claude bittet, „was macht eigentlich Moselwal“, dann findet Claude unseren llms.txt-Manifest, ruft die Service-Detail-Routen ab, liest die Schema.org-Annotation, formuliert eine Antwort mit korrekten Zitationen. Wenn derselbe User dieselbe Frage in Google AI Mode stellt, kommt die Antwort aus Googles Index — dieselben Inhalte, ein anderer Pfad. Beides funktioniert, weil unser Stack beides bedient.
Wer nur Google-Optimierung macht, sieht in Cloudflares Score-Test ggf. 50–70/100. Reicht das? Es kommt darauf an, ob die anderen Konsumenten für das Geschäftsmodell relevant sind.
Was Mittelständler jetzt konkret tun sollten
Aus der Kombination aus Googles Guide und unserer Stack-Prüfung ergeben sich vier konkrete Empfehlungen.
1. SEO-Basics nicht vernachlässigen
Googles Punkt steht und ist richtig: ohne saubere SEO-Foundation kein Auftauchen in Google AI Overviews. Non-commodity Content, klare technische Struktur, Page Experience, Bild-/Video-SEO bleiben das Fundament. Wer sich von KI-Hype davon ablenken lässt, verliert beides — die klassische Suche und die generative.
2. Für KI-generierte Bilder das IPTC-Tag setzen
Das ist die einzige neue technische Pflicht aus dem Mai-2026-Guide. Wer eigene Bild-Pipeline-Tools nutzt: prüfen, ob DigitalSourceType=trainedAlgorithmicMedia bei AI-generierten Assets im XMP-Sidecar landet. Wer TYPO3 mit unserem content-provenance-Paket läuft: schon erledigt. Wer Bilder aus Adobe Firefly, Midjourney oder DALL-E manuell hochlädt: das Tag steht in der Quell-Datei meist drin, geht aber bei Re-Encoding (Resize, WebP-Konversion) verloren — prüfen.
3. Für Merchant-Center-Feeds: AI-Labels einplanen
Wer Sylius, Shopware, Magento oder eine eigene Produktdaten-Pipeline gegen Google Merchant Center sendet, sollte das AI-Label-Feld für Title und Description als Feed-Erweiterung umsetzen — nicht weil es heute hart blockiert, sondern weil Google angekündigt hat, hier durchzusetzen.
4. llms.txt + Schema.org + MCP-Tools trotzdem bauen — für die Nicht-Google-Welt
Hier wird die Empfehlung kontroverser, weil Google explizit das Gegenteil sagt. Unsere Position: Wer die vier Schichten eines AI-ready CMS baut, optimiert nicht gegen Google, sondern zusätzlich für Anthropic, OpenAI, Perplexity, Voice-Agents und kommende MCP-Konsumenten. Der Aufwand ist niedrig, sobald die Plattform einmal steht. Der Verzicht ist riskant, weil die Nicht-Google-Welt jeden Monat bedeutender wird.
Was nicht zu tun ist
- Keine Sonder-Inhalte für KI rewrite — Google sagt übrigens dasselbe.
- Kein Content-Spam mit fan-out-Variationen jeder möglichen User-Frage — Google markiert das explizit als Spam.
- Kein Inauthentic-Mention-Building — weder bei Google noch bei den anderen Konsumenten ein Hebel.
- Kein „AEO/GEO-Framework“ als separate Disziplin neben SEO — die Welten überlappen sich zu stark.
Häufige Fragen zum Google AI Optimization Guide
Sagt Google jetzt offiziell, dass llms.txt sinnlos ist?+
Für Google Search ja — Google verarbeitet llms.txt nicht und schlägt explizit vor, sie nicht zu erstellen. Für andere LLM-Konsumenten (Anthropic, OpenAI, Perplexity) wird llms.txt teilweise gelesen und als Discovery-Quelle genutzt. Wer ausschließlich Google bedient, kann sie weglassen. Wer auch für die Nicht-Google-Welt sichtbar bleiben will, baut sie als strategischen Hedge — der Aufwand ist niedrig, der Mehrwert wird mit jedem Monat größer.
Was ist der einzige technische Pflichtpunkt aus Googles Guide?+
Bilder, die mit generativer KI erstellt wurden, müssen das IPTC-Metadaten-Feld DigitalSourceType mit dem Wert trainedAlgorithmicMedia im XMP-Sidecar tragen. Für E-Commerce kommt zusätzlich: AI-generierte Produkt-Title und -Beschreibungen müssen im Merchant-Center-Feed separat als AI-generated gelabelt werden. Alles andere im Guide ist explizit als optional oder unnötig markiert.
Heisst das, mein Cloudflare-Score 100/100 ist überbewertet?+
Für Google-Sichtbarkeit allein: ja, der Score misst Dinge, die Google ausdrücklich als unnötig markiert. Für die Gesamt-KI-Sichtbarkeit: nein. Cloudflare bewertet, wie gut eine Website von Agenten außerhalb von Google genutzt werden kann — llms.txt, Schema.org-JSON-LD, MCP-Tool-Discovery, retrievaltauglicher Section-Spine. Wer in beiden Welten sichtbar sein will, braucht beide Optimierungen — die SEO-Basics für Google plus die AI-ready-Schichten für den Rest.
Wenn Google llms.txt nicht braucht — wird der Standard dann nicht doch sterben?+
Unwahrscheinlich. Anthropic, OpenAI und Perplexity nutzen llms.txt aktiv. Voice-Agent-Anbieter, browser-native MCP-Konsumenten und kommende Search-Agents (Universal Commerce Protocol) bauen darauf auf. Selbst wenn Google bei seiner Position bleibt: die Marktanteile der Nicht-Google-Konsumenten wachsen monatlich, und ein leerer Discovery-Endpoint ist eine Handbremse. Wir bauen llms.txt nicht weil Google es will, sondern weil der Markt jenseits von Google es braucht.
Was ändert sich für unsere Bestandskunden konkret durch Googles Guide?+
Nichts. Unsere bestehenden Plattform-Engagements decken die Google-Anforderung (IPTC-DigitalSourceType) seit Phase 3 unseres content-provenance-Pakets ab. Schema.org, llms.txt, MCP-Tool-API und C2PA-Signaturen bleiben Bestandteil des Stacks — nicht weil Google sie verlangt, sondern weil sie für den breiteren Trust-Layer und die Nicht-Google-Konsumenten gebraucht werden. Falls Sie auf Sylius/Shopware mit Merchant-Center-Feeds laufen: wir klären in der nächsten Plattform-Review, ob die AI-Label-Erweiterung für Produktdaten relevant wird.
Fazit
Googles Guide ist sauber, intern konsistent und sagt eine wichtige Wahrheit: SEO ist und bleibt das Fundament. Foundational SEO + non-commodity Content + technische Klarheit reichen, um in Google AI Overviews und AI Mode aufzutauchen. Die einzige neue technische Pflicht ist die IPTC-Bildkennzeichnung für KI-generierte Assets — die wir bei Moselwal seit Phase 3 unseres content-provenance-Pakets standardmäßig schreiben.
Was der Guide nicht beantwortet — und auch nicht beantworten muss — ist die KI-Welt jenseits von Google. Anthropic Claude, Perplexity, OpenAI, Voice-Agents, browser-native MCP-Konsumenten: die fragen nicht bei Google nach. Sie greifen direkt auf Discovery-Endpunkte, JSON-LD-Annotationen und MCP-Tool-Listen zu. Wer dort gefunden werden will, baut llms.txt, Schema.org und MCP-Tools — nicht gegen Google, sondern zusätzlich.
Unser Cloudflare-Agent-Readiness-Score 100/100 misst genau diese zusätzliche Schicht. Im Zusammenspiel mit Googles Foundational-SEO bedient er beide Welten. Die einzige sinnvolle Antwort auf den Guide ist deshalb: „Alles, was Google sagt, machen wir bereits. Plus die vier Schichten, die er nicht erwähnt.“
Google AI Search ist nur ein Konsument von vielen — wir bauen Plattformen, die alle bedienen.
Wir helfen Mittelständlern, ihre TYPO3-Plattform sowohl für Google AI Search (Foundational SEO + IPTC-Pflicht) als auch für die Nicht-Google-Welt (Anthropic, Perplexity, Voice-Agents, MCP) AI-ready aufzubauen. Cloudflare-Agent-Readiness-Score 100/100 inklusive. Sprechen Sie uns an, wenn Sie wissen wollen, wo Ihre Plattform heute steht und was es konkret braucht, um auch jenseits von Google sichtbar zu bleiben.





