
GEO Part 2: Der DOM-Tree als API – Warum KI-Crawler Page-Builder hassen
Wenn wir eine Webseite entwickeln, betrachten wir sie zunehmend als strukturierte Informationsquelle. Unser Endnutzer ist nicht mehr nur der Mensch vor dem Bildschirm, sondern auch Systeme wie Suchmaschinen-Crawler oder Large Language Models (LLMs), die Inhalte extrahieren, bewerten und teilweise in ihre Antworten integrieren (z. B. Google AI Overviews oder KI-gestützte Suchsysteme wie ChatGPT Search).
Der größte Feind dieser Maschinenlesbarkeit? Page-Builder wie Elementor, WPBakery oder Divi.
Das Problem der "Div-Soup"
Page-Builder generieren für simpelste Layouts extrem tiefe und komplexe DOM-Trees (Document Object Model). Wo ein sauber programmiertes TYPO3-System ein einfaches <article> und ein <h2> ausgibt, generiert ein Baukasten oft 8 bis 10 verschachtelte <div>-Container mit kryptischen Klassen (<div class="elementor-element-123xyz">), nur um einen Textblock zu zentrieren.
Für einen Menschen im Browser macht das optisch keinen Unterschied. Für Crawler und Parser kann eine unnötig komplexe DOM-Struktur jedoch zusätzliche Verarbeitungskosten verursachen.
Warum das für Suchsysteme relevant ist
- Rendering & Verarbeitung:
Je größer und komplexer ein DOM-Tree ist, desto mehr Ressourcen werden beim Rendering oder Parsing benötigt. Das betrifft sowohl Browser als auch Suchmaschinen-Crawler, insbesondere wenn JavaScript-Rendering erforderlich ist. - Semantik & Struktur:
Suchmaschinen analysieren unter anderem semantische HTML-Elemente wie <main>, <article>, <nav> oder <aside>, um die Rolle einzelner Inhalte besser einzuordnen. Fehlen solche Strukturen komplett und wird ausschließlich generisches <div>-Markup verwendet, kann das die maschinelle Interpretation der Seitenstruktur erschweren. - Signal-zu-Rauschen-Verhältnis:
Ein sehr aufgeblähter DOM-Tree kann dazu führen, dass relevante Inhalte im Verhältnis zum Markup weniger klar hervortreten, was die automatisierte Extraktion von Hauptinhalten erschweren kann.
Die Industrial-Grade-Lösung
Bei CloudWebDevs verzichten wir bewusst auf visuelle Page-Builder und setzen stattdessen auf klassische Template-Entwicklung mit TYPO3 und sauberem CSS. Das Frontend wird serverseitig in strukturierte, semantische HTML-Templates gerendert.
Das Ergebnis ist eine sehr schlanke Seite, deren Inhaltsstruktur sowohl für Browser als auch für Suchmaschinen und KI-Systeme klar interpretierbar ist.
Wer im KI-Zeitalter gefunden werden will, sollte Webseiten nicht nur visuell gestalten, sondern auch auf saubere semantische Struktur, klare Inhaltsbereiche und effizientes Markup achten.