Experiment

Wie nehmen KI-Systeme
Webseiten wahr?

Diese Seite demonstriert, welche Inhalte für Crawler, Suchmaschinen und generative KI sichtbar sind — und welche nicht.

Was wird hier untersucht?

Nicht jeder Inhalt einer Webseite ist für KI-Systeme gleichermaßen zugänglich. Zwei der wichtigsten Faktoren sind:

Faktor Wer sieht es? Empfehlung
Statisches HTML Alle Crawler Wichtige Inhalte immer im initialen HTML platzieren
CSS-versteckter Text (display:none) Teilweise Wird oft indexiert, aber möglicherweise abgewertet
JavaScript-gerendert Teilweise Nur von rendernden Crawlern (z.B. Googlebot) erfasst
fetch() / API-Daten Meist unsichtbar Für KI-Training und viele Crawler nicht verfügbar
🎨

CSS-Sichtbarkeit

Sechs verschiedene CSS-Techniken zum Verstecken von Inhalten — und wie KI-Crawler sie unterschiedlich wahrnehmen.

Experimente ansehen
⚙️

JavaScript-Rendering

Inhalte, die per JS dynamisch geladen werden: inline, via fetch(), verzögert und per Template. Was sehen Crawler?

Experimente ansehen
📊

Roher HTML-Quellcode

Zum Vergleich: Rechtsklick → "Seitenquelltext" zeigt, was ein einfacher Crawler ohne JS-Rendering sieht.

Crawler-Typen im Überblick

Crawler JavaScript CSS-Hiding Delayed Content
Einfache HTML-Crawler (viele LLM-Trainer) Nein Quelltext sichtbar Nein
Googlebot (Rendering Wave) Ja Wird abgewertet Teilweise
Bingbot Teilweise Variiert Meist Nein
ChatGPT / Perplexity (Browsing) Teilweise Variiert Meist Nein
Fazit: Für maximale Sichtbarkeit bei allen KI-Systemen sollten kritische Inhalte immer im initialen, statischen HTML vorhanden sein — nicht hinter JavaScript oder CSS-Hiding.