Technisches SEO: Die komplette Checkliste für 2026
Was ist technisches SEO und warum entscheidet es über dein Ranking?
Technisches SEO umfasst alle Maßnahmen, die sicherstellen, dass Suchmaschinen deine Website fehlerfrei crawlen, indexieren und bewerten können. Ohne eine saubere technische Basis verpuffen selbst die besten Inhalte. Google kann nur ranken, was Google findet und versteht.
Laut einer Studie von Ahrefs haben über 60 Prozent aller Websites mindestens ein kritisches technisches SEO-Problem. Häufig sind es genau diese unsichtbaren Fehler, die Rankings kosten. Doppelte Inhalte, fehlende Canonical-Tags, blockierte Ressourcen oder langsame Ladezeiten wirken wie Bremsen.
Diese Checkliste deckt alle relevanten Bereiche ab. Du kannst sie Punkt für Punkt durchgehen und sofort umsetzen. Jeder Abschnitt enthält konkrete Handlungsanweisungen.
Ist deine Website für Google crawlbar?
Crawlability ist die Grundvoraussetzung. Wenn der Googlebot deine Seiten nicht erreichen kann, existieren sie für die Suche nicht. Prüfe diese Punkte:
robots.txt korrekt konfigurieren. Die robots.txt-Datei liegt im Stammverzeichnis deiner Domain. Sie steuert, welche Bereiche Crawler besuchen dürfen. Ein häufiger Fehler: Wichtige Verzeichnisse werden versehentlich blockiert. Prüfe deine robots.txt unter domain.de/robots.txt und teste sie in der Google Search Console.
XML-Sitemap einreichen. Deine Sitemap listet alle indexierungswürdigen URLs auf. Sie sollte automatisch aktualisiert werden und keine URLs mit Statuscodes 404 oder 301 enthalten. Reiche sie in der Google Search Console ein. Die maximale Größe beträgt 50.000 URLs oder 50 MB.
Interne Verlinkung prüfen. Jede wichtige Seite sollte maximal drei Klicks von der Startseite entfernt sein. Verwaiste Seiten ohne interne Links werden selten gecrawlt. Tools wie Screaming Frog zeigen dir die Klicktiefe jeder URL.
Werden deine Seiten korrekt indexiert?
Crawling und Indexierung sind zwei verschiedene Dinge. Eine gecrawlte Seite wird nicht automatisch indexiert. Google entscheidet anhand von Qualitätssignalen.
Meta-Robots-Tags überprüfen. Der Tag <meta name="robots" content="noindex"> verhindert die Indexierung. Stelle sicher, dass nur Seiten ein Noindex-Tag tragen, die wirklich nicht indexiert werden sollen. Kategoriefilter, interne Suchergebnisse oder doppelte Seiten gehören dazu.
Canonical-Tags setzen. Canonical-Tags zeigen Google die bevorzugte Version einer Seite. Bei doppelten Inhalten oder URL-Varianten verhindern sie Duplicate Content. Jede Seite sollte ein selbstreferenzierendes Canonical haben.
Indexierungsstatus prüfen. Nutze den Bericht “Seiten” in der Google Search Console. Dort siehst du, welche URLs indexiert sind und welche ausgeschlossen wurden. Häufige Gründe für Ausschlüsse: “Crawled - currently not indexed” oder “Discovered - currently not indexed”.
Wie optimierst du die Core Web Vitals?
Google nutzt die Core Web Vitals als Rankingfaktor. Sie messen die Nutzererfahrung anhand von drei Metriken. Seit 2024 gilt Interaction to Next Paint (INP) als dritte Metrik.
Largest Contentful Paint (LCP) misst die Ladezeit des größten sichtbaren Elements. Zielwert: unter 2,5 Sekunden. Optimiere Bilder, nutze modernes WebP- oder AVIF-Format und setze ein CDN ein. Lazy Loading für Bilder unterhalb des sichtbaren Bereichs spart Ressourcen.
Interaction to Next Paint (INP) misst die Reaktionsfähigkeit auf Nutzereingaben. Zielwert: unter 200 Millisekunden. Reduziere JavaScript-Bundles, vermeide lange Main-Thread-Aufgaben und nutze Web Worker für rechenintensive Operationen.
Cumulative Layout Shift (CLS) misst visuelle Stabilität. Zielwert: unter 0,1. Definiere immer Breite und Höhe für Bilder und Videos. Lade Webfonts mit font-display: swap und reserviere Platz für dynamische Inhalte wie Werbebanner.
Teste deine Werte mit Google PageSpeed Insights oder dem Chrome User Experience Report. Die Felddaten (echte Nutzerdaten) sind aussagekräftiger als Labordaten.
Ist deine Website mobilfreundlich?
Seit Googles Umstellung auf Mobile-First-Indexierung wird die mobile Version deiner Website als primäre Version bewertet. Desktop-Optimierung allein reicht nicht mehr.
Responsives Design verwenden. Stelle sicher, dass alle Seiten auf Smartphones korrekt dargestellt werden. Text muss ohne Zoomen lesbar sein. Buttons und Links brauchen ausreichend Abstand für Touch-Bedienung.
Viewport-Meta-Tag setzen. Der Tag <meta name="viewport" content="width=device-width, initial-scale=1"> ist Pflicht. Ohne ihn zeigt das Smartphone die Desktop-Version in verkleinerter Form.
Mobile Ladezeiten optimieren. Mobile Nutzer haben oft langsamere Verbindungen. Komprimiere Ressourcen, minimiere CSS und JavaScript und nutze Browser-Caching. Laut Google verlassen 53 Prozent der Nutzer eine Seite, wenn sie länger als drei Sekunden lädt.
Wie setzt du internationale SEO technisch um?
Wenn deine Website mehrere Sprachen oder Länderversionen hat, brauchst du eine saubere hreflang-Implementierung. Fehler hier führen zu falschen Sprachversionen in den Suchergebnissen.
hreflang-Tags korrekt einsetzen. Jede Sprachversion verweist per hreflang auf alle anderen Versionen inklusive sich selbst. Die Tags können im HTML-Head, in der Sitemap oder im HTTP-Header stehen. Achte auf korrekte Sprach- und Ländercodes nach ISO 639-1 und ISO 3166-1.
x-default definieren. Der Wert x-default zeigt Google die Standardversion oder eine Sprachauswahl-Seite. Ohne x-default entscheidet Google selbst, welche Version ausgespielt wird.
URL-Struktur festlegen. Wähle zwischen Subdirectories (/de/, /en/), Subdomains (de.domain.com) oder länderspezifischen Domains (domain.de, domain.co.uk). Subdirectories sind für die meisten Unternehmen die einfachste und SEO-freundlichste Lösung.
Welche Rolle spielt die Seitenarchitektur?
Eine logische Seitenstruktur hilft Google, die Hierarchie und Relevanz deiner Inhalte zu verstehen. Sie verbessert gleichzeitig die Nutzererfahrung.
Flache Hierarchie anstreben. Wichtige Seiten sollten nicht tiefer als drei Ebenen liegen. Startseite, Kategorie, Detailseite – diese Struktur funktioniert für die meisten Websites.
Breadcrumbs implementieren. Breadcrumbs zeigen den Pfad zur aktuellen Seite und generieren zusätzliche interne Links. Nutze das BreadcrumbList-Schema für strukturierte Daten, damit Google sie als Rich Result anzeigen kann.
URL-Struktur bereinigen. URLs sollten kurz, sprechend und hierarchisch sein. Vermeide Parameter, Session-IDs und unnötige Verschachtelungen. Eine gute URL: domain.de/seo/technisches-seo/. Eine schlechte: domain.de/p?id=4827&cat=12.
Wie verbesserst du die Sicherheit deiner Website?
Sicherheit ist ein Rankingfaktor. Google bevorzugt sichere Websites und warnt Nutzer vor unsicheren Verbindungen.
HTTPS ist Pflicht. Stelle sicher, dass deine gesamte Website über HTTPS erreichbar ist. Alle HTTP-URLs müssen per 301-Redirect auf HTTPS weiterleiten. Prüfe, dass dein SSL-Zertifikat gültig ist und automatisch erneuert wird.
Mixed Content beseitigen. Mixed Content entsteht, wenn eine HTTPS-Seite Ressourcen über HTTP lädt. Browser blockieren diese Ressourcen oder zeigen Warnungen. Prüfe alle eingebetteten Bilder, Skripte und Stylesheets.
HTTP-Security-Header setzen. Header wie X-Content-Type-Options, X-Frame-Options und Content-Security-Policy schützen vor Angriffen. Sie sind kein direkter Rankingfaktor, stärken aber das Vertrauen in deine Website.
Welche technischen SEO-Fehler sind am häufigsten?
Bestimmte Fehler treten bei fast jeder Website auf. Kenne sie und prüfe regelmäßig.
Broken Links (404-Fehler). Tote Links verschlechtern die Nutzererfahrung und verschwenden Crawl-Budget. Prüfe interne und externe Links regelmäßig. Leite wichtige 404-Seiten per 301-Redirect auf passende Alternativen weiter.
Redirect-Ketten. Wenn eine URL auf eine zweite weiterleitet, die wiederum auf eine dritte zeigt, entsteht eine Redirect-Kette. Jeder Redirect kostet Ladezeit und kann Linkjuice verlieren. Leite immer direkt auf die finale URL weiter.
Doppelte Inhalte. Duplicate Content entsteht durch URL-Varianten (mit/ohne www, mit/ohne Trailing Slash), Druckversionen oder Filter-URLs. Löse das Problem mit Canonical-Tags und konsistenter interner Verlinkung.
Fehlende oder doppelte Meta-Tags. Jede Seite braucht einen einzigartigen Title-Tag (50-60 Zeichen) und eine einzigartige Meta-Description (120-155 Zeichen). Doppelte Titles und Descriptions verwirren Google bei der Zuordnung.
Wie oft solltest du technische SEO-Audits durchführen?
Ein einmaliger Audit reicht nicht. Technische SEO-Probleme entstehen laufend durch Updates, neue Inhalte und Systemänderungen.
Monatlicher Quick-Check. Prüfe die Google Search Console auf neue Fehler, Indexierungsprobleme und Core Web Vitals. Das dauert 15-30 Minuten und deckt die gröbsten Probleme auf.
Vierteljährlicher Deep Audit. Crawle deine gesamte Website mit Tools wie Screaming Frog oder Sitebulb. Analysiere Statuscode-Verteilung, Ladezeiten, Content-Qualität und interne Verlinkung. Dokumentiere Findings und priorisiere nach Auswirkung.
Nach jedem Relaunch. Website-Relaunches sind die häufigste Ursache für massive SEO-Verluste. Erstelle eine Redirect-Map, prüfe alle URLs nach dem Launch und überwache Traffic und Rankings engmaschig in den ersten vier Wochen.
Technisches SEO ist kein Einmalprojekt. Es ist die Grundlage, auf der alle anderen SEO-Maßnahmen aufbauen. Ohne saubere Technik funktionieren weder Content-Optimierung noch Linkbuilding.
Du brauchst Unterstützung beim technischen SEO?
Als SEO-Freelancer analysiere ich deine Website auf technische Schwachstellen und setze Optimierungen priorisiert um. Von der Crawlability bis zu den Core Web Vitals – du bekommst einen klaren Fahrplan mit konkreten Maßnahmen.
Jetzt kostenloses Erstgespräch vereinbaren und deine technische SEO-Basis stärken.
Über den Autor
Christian SynoradzkiGEO-Spezialist & SEO-Freelancer
20+ Jahre Erfahrung im digitalen Marketing. Zertifizierter Google Partner mit Referenzen bei Henkel, Telekom und Coca-Cola. Einer der ersten GEO-Spezialisten in Deutschland – ich optimiere Unternehmen für Sichtbarkeit in ChatGPT, Perplexity und Google AI Overviews.