Was wird hier untersucht?
Nicht jeder Inhalt einer Webseite ist für KI-Systeme gleichermaßen zugänglich. Zwei der wichtigsten Faktoren sind:
| Faktor | Wer sieht es? | Empfehlung |
|---|---|---|
| Statisches HTML | Alle Crawler | Wichtige Inhalte immer im initialen HTML platzieren |
CSS-versteckter Text (display:none) |
Teilweise | Wird oft indexiert, aber möglicherweise abgewertet |
| JavaScript-gerendert | Teilweise | Nur von rendernden Crawlern (z.B. Googlebot) erfasst |
| fetch() / API-Daten | Meist unsichtbar | Für KI-Training und viele Crawler nicht verfügbar |
CSS-Sichtbarkeit
Sechs verschiedene CSS-Techniken zum Verstecken von Inhalten — und wie KI-Crawler sie unterschiedlich wahrnehmen.
Experimente ansehenJavaScript-Rendering
Inhalte, die per JS dynamisch geladen werden: inline, via fetch(), verzögert und per Template. Was sehen Crawler?
Experimente ansehenRoher HTML-Quellcode
Zum Vergleich: Rechtsklick → "Seitenquelltext" zeigt, was ein einfacher Crawler ohne JS-Rendering sieht.
Crawler-Typen im Überblick
| Crawler | JavaScript | CSS-Hiding | Delayed Content |
|---|---|---|---|
| Einfache HTML-Crawler (viele LLM-Trainer) | Nein | Quelltext sichtbar | Nein |
| Googlebot (Rendering Wave) | Ja | Wird abgewertet | Teilweise |
| Bingbot | Teilweise | Variiert | Meist Nein |
| ChatGPT / Perplexity (Browsing) | Teilweise | Variiert | Meist Nein |
Fazit: Für maximale Sichtbarkeit bei allen KI-Systemen sollten kritische Inhalte immer im initialen, statischen HTML vorhanden sein — nicht hinter JavaScript oder CSS-Hiding.