Zurück zum Blog

Core Web Vitals und GEO: Warum Ladezeit auch für KI zählt

Von Christian Synoradzki |
Core Web Vitals SEO GEO Performance

Warum interessiert sich KI für deine Ladezeit?

Core Web Vitals messen, wie schnell und stabil deine Website lädt. Google nutzt sie als Ranking-Faktor. Aber auch KI-Systeme sind betroffen – indirekt und direkt. Indirekt, weil KI-Systeme häufig die gleichen Quellen zitieren, die bei Google gut ranken. Direkt, weil langsame Seiten von KI-Crawlern schlechter indexiert werden.

ChatGPT, Perplexity und Google AI Overviews verwenden Webcrawler, die deine Seiten abrufen. Wenn eine Seite zu langsam antwortet, bricht der Crawler ab. Der Inhalt wird nicht indexiert. Die beste GEO-Strategie ist wertlos, wenn der Crawler deine Seite nicht laden kann.

Eine Google-Studie zeigt: Seiten mit einer Ladezeit über 3 Sekunden verlieren 53 Prozent ihrer mobilen Besucher. Für KI-Crawler gelten ähnliche Timeouts. Wer technisch langsam ist, wird sowohl von Menschen als auch von Maschinen ignoriert.

Was genau sind Core Web Vitals?

Core Web Vitals bestehen aus drei Metriken, die zusammen die Nutzererfahrung messen:

Largest Contentful Paint (LCP) misst, wie lange es dauert, bis das größte sichtbare Element der Seite geladen ist. Das ist typischerweise ein Hero-Bild oder ein großer Textblock. Zielwert: unter 2,5 Sekunden. Ein schlechter LCP-Wert bedeutet, dass Nutzer lange auf eine leere Seite starren.

Interaction to Next Paint (INP) – seit März 2024 der Nachfolger von FID – misst die Reaktionsfähigkeit deiner Seite. Wenn ein Nutzer auf einen Button klickt, wie lange dauert es, bis die Seite reagiert? Zielwert: unter 200 Millisekunden. Langsame Interaktionen frustrieren Nutzer und signalisieren technische Probleme.

Cumulative Layout Shift (CLS) misst visuelle Stabilität. Springt der Inhalt beim Laden umher? Verschiebt sich ein Button, sodass du daneben klickst? Zielwert: unter 0,1. Ein hoher CLS-Wert ist nicht nur nervig, sondern signalisiert Suchmaschinen eine schlechte technische Umsetzung.

Wie beeinflussen Core Web Vitals die KI-Indexierung?

KI-Systeme nutzen verschiedene Crawler, um Webinhalte zu erfassen. Googles Crawler für AI Overviews basiert auf dem gleichen System wie der reguläre Googlebot. Perplexity nutzt einen eigenen Crawler namens PerplexityBot. ChatGPT greift über den Bing-Index und eigene Browsing-Mechanismen auf Webinhalte zu.

Alle diese Crawler haben eines gemeinsam: Sie haben Timeout-Limits. Wenn deine Seite zu langsam antwortet, wird der Crawl abgebrochen. Der Inhalt wird nicht in die Vektordatenbank aufgenommen. Im RAG-Prozess existiert deine Seite dann schlicht nicht.

Schnelle Seiten werden häufiger gecrawlt. Google crawlt performante Websites öfter und tiefer. Das bedeutet: Mehr deiner Seiten werden indexiert. Mehr indexierte Seiten bedeuten mehr potenzielle Chunks im RAG-System. Mehr Chunks bedeuten eine höhere Wahrscheinlichkeit, dass deine Inhalte bei relevanten Fragen gefunden werden.

Warum ist LCP der wichtigste Wert für GEO?

LCP bestimmt, ob dein Inhalt überhaupt vollständig geladen wird. Ein Crawler, der nach 3 Sekunden abbricht, hat bei einem LCP von 4 Sekunden den Hauptinhalt möglicherweise nicht erfasst. Das Ergebnis: Der Crawler indexiert nur den HTML-Header und die ersten Textzeilen – der Rest fehlt.

Die häufigsten LCP-Killer sind: Unkomprimierte Bilder, zu große Hero-Images, langsame Server-Antwortzeiten und render-blockierendes JavaScript. Jeder dieser Faktoren lässt sich beheben.

Bilder optimieren: Nutze moderne Formate wie WebP oder AVIF. Komprimiere Bilder auf die tatsächlich angezeigte Größe. Verwende Lazy Loading für Bilder unterhalb des sichtbaren Bereichs. Ein Hero-Image sollte unter 100 KB bleiben.

Server-Antwortzeit verbessern: Nutze ein CDN (Content Delivery Network). Aktiviere Caching. Wähle einen schnellen Hosting-Provider. Die Server-Antwortzeit (TTFB) sollte unter 200 Millisekunden liegen.

JavaScript reduzieren: Entferne ungenutztes JavaScript. Lade Scripts asynchron oder deferred. Jedes Kilobyte JavaScript muss heruntergeladen, geparst und ausgeführt werden – das kostet Zeit.

Wie wirkt sich CLS auf die Crawlbarkeit aus?

CLS ist primär ein Nutzererfahrungs-Problem. Für KI-Crawler ist er weniger direkt relevant, weil Crawler keinen visuellen Rendering-Prozess durchlaufen. Aber CLS korreliert mit anderen technischen Problemen, die auch Crawler betreffen.

Hoher CLS entsteht oft durch nachgeladene Ressourcen: Webfonts, die den Text verschieben, Werbebanner, die den Inhalt nach unten drücken, oder Bilder ohne definierte Dimensionen. Diese Ressourcen verlangsamen auch den Gesamtladevorgang und beeinflussen den LCP.

Für SEO bleibt CLS ein wichtiger Faktor. Google bestraft Seiten mit schlechtem CLS durch niedrigere Rankings. Niedrigere Rankings bedeuten weniger Sichtbarkeit – und KI-Systeme nutzen häufig Top-rankende Seiten als Quellen. Der Zusammenhang ist indirekt, aber real.

Warum ist Astro eine ideale Lösung für GEO-Performance?

Astro ist ein modernes Web-Framework, das standardmäßig kein JavaScript an den Browser sendet. Es generiert statische HTML-Seiten, die extrem schnell laden. Für KI-Crawler ist das ideal: Sie bekommen den vollständigen Inhalt als reines HTML, ohne auf JavaScript-Rendering warten zu müssen.

Die Website geofreelancer.de ist mit Astro gebaut. Das Ergebnis: Lighthouse-Scores von 95+ in allen Kategorien. LCP unter 1,5 Sekunden. CLS von 0. INP nicht messbar, weil kaum JavaScript ausgeführt wird. Diese technische Basis sorgt dafür, dass jeder Crawler den Inhalt sofort und vollständig erfassen kann.

Andere Frameworks wie Next.js oder Nuxt können ähnliche Ergebnisse erzielen, erfordern aber mehr Optimierungsaufwand. React-basierte SPAs (Single Page Applications) sind für KI-Crawler problematisch, weil der Inhalt erst durch JavaScript gerendert wird. Crawler, die kein JavaScript ausführen, sehen eine leere Seite.

Wie erreichst du einen Lighthouse Score über 90?

Google Lighthouse misst Performance, Accessibility, Best Practices und SEO. Ein Score über 90 in allen Kategorien signalisiert technische Exzellenz. Für GEO ist besonders der Performance-Score relevant.

Performance-Optimierungen:

  1. Bilder im WebP-Format ausliefern. WebP ist 25 bis 35 Prozent kleiner als JPEG bei gleicher Qualität.
  2. Kritisches CSS inlinen. Der CSS-Code für den sichtbaren Bereich sollte direkt im HTML stehen, nicht in einer externen Datei.
  3. Fonts vorloaden. Lade Webfonts mit <link rel="preload">, um Flash of Unstyled Text (FOUT) zu vermeiden.
  4. Third-Party-Scripts minimieren. Jedes externe Script (Analytics, Tag Manager, Chat-Widgets) kostet Performance. Lade sie deferred oder nur bei Bedarf.
  5. HTML minimieren. Entferne Kommentare, überflüssige Leerzeichen und ungenutzten Code aus dem HTML.

Accessibility-Optimierungen verbessern nicht nur den Score, sondern auch die Crawlbarkeit. Semantisches HTML mit korrekten Headings (H1 bis H6), Alt-Texte für Bilder und ARIA-Labels helfen Crawlern, den Inhalt zu verstehen.

Welche technischen Basics brauchst du für KI-Crawling?

Neben Core Web Vitals gibt es weitere technische Faktoren, die KI-Crawling beeinflussen:

robots.txt richtig konfigurieren. Stelle sicher, dass KI-Crawler nicht blockiert werden. Viele robots.txt-Dateien blockieren versehentlich GPTBot, PerplexityBot oder andere KI-Crawler. Prüfe deine Konfiguration und erlaube die Crawler, von denen du indexiert werden willst.

Sitemap.xml aktuell halten. Eine aktuelle Sitemap hilft Crawlern, alle deine Seiten zu finden. Aktualisiere die Sitemap automatisch bei jeder Veröffentlichung. Inkludiere das lastmod-Datum für jede URL.

Schema Markup implementieren. Strukturierte Daten machen deine Inhalte maschinenlesbar. Für GEO besonders wichtig: Article-Schema, FAQPage-Schema und Organization-Schema.

llms.txt bereitstellen. Diese Datei gibt KI-Systemen einen strukturierten Überblick über deine Website. Sie ist das Pendant zur Sitemap – speziell für LLMs.

HTTPS verwenden. Ohne SSL-Zertifikat werden viele Crawler deine Seite nicht indexieren. HTTPS ist seit Jahren Standard und absolute Grundvoraussetzung.

Wie misst du den Einfluss von Performance auf KI-Sichtbarkeit?

Die direkte Messung ist schwierig, weil KI-Systeme ihre Ranking-Algorithmen nicht offenlegen. Aber du kannst Korrelationen beobachten.

Vergleiche deine Lighthouse-Scores mit deiner KI-Sichtbarkeit. Nutze den Share of Model als Metrik. Verbessere deine Core Web Vitals und beobachte, ob sich die KI-Zitierungen über die folgenden Wochen verändern.

Prüfe auch die Server-Logs. Suche nach Zugriffen von GPTBot, PerplexityBot, ClaudeBot und anderen KI-Crawlern. Wie oft crawlen sie deine Seite? Welche Seiten werden am häufigsten abgerufen? Gibt es Timeout-Fehler? Diese Daten zeigen dir, ob deine technische Infrastruktur für KI-Crawling geeignet ist.

Was ist der nächste Schritt?

Starte mit einem Lighthouse-Test deiner wichtigsten Seiten. Identifiziere die größten Performance-Probleme. Behebe die kritischsten Punkte zuerst: Bildoptimierung, Server-Antwortzeit, JavaScript-Reduktion. Prüfe dann deine robots.txt und stelle sicher, dass KI-Crawler willkommen sind.

Technische Performance ist die Grundlage für alles, was du in SEO und GEO erreichst. Die beste Content-Strategie verpufft, wenn Crawler deine Seite nicht laden können. Investiere in deine technische Basis – sie ist das Fundament deiner Sichtbarkeit.

Du willst deine Website technisch für KI-Crawler optimieren? Kontaktiere mich – ich analysiere deine Core Web Vitals und erstelle einen Optimierungsplan für maximale Sichtbarkeit in Suchmaschinen und KI-Systemen.

Christian Synoradzki

Über den Autor

Christian Synoradzki

GEO-Spezialist & SEO-Freelancer

20+ Jahre Erfahrung im digitalen Marketing. Zertifizierter Google Partner mit Referenzen bei Henkel, Telekom und Coca-Cola. Einer der ersten GEO-Spezialisten in Deutschland – ich optimiere Unternehmen für Sichtbarkeit in ChatGPT, Perplexity und Google AI Overviews.