Technisches SEO Audit: Die komplette Checkliste für 2026
So führst du ein technisches SEO Audit durch: Crawling, Indexierung, Core Web Vitals, Seitenstruktur und mobile Optimierung. Mit konkreten Prüfpunkten, Tools und den häufigsten Fehlern, die Rankings kosten.
Laut einer Ahrefs-Studie mit 14,4 Millionen Websites haben 68,3 % aller Seiten kritische technische SEO-Fehler, die ihre Sichtbarkeit aktiv drücken. Zwei Drittel. Und die meisten Betreiber wissen nichts davon, weil der Content gut aussieht und die Seite schnell lädt. Zumindest gefühlt.
Das Problem: Google bewertet nicht, wie deine Seite für dich aussieht. Google bewertet, wie gut der Crawler sie lesen, verstehen und einordnen kann. Wenn da etwas hakt, hilft auch der beste Blogbeitrag nichts.
Ein technisches SEO Audit deckt genau diese unsichtbaren Probleme auf. Keine Raketenwissenschaft, aber ohne System übersieht man die Stellen, die wirklich wehtun. Hier ist die Checkliste, sortiert nach Wirkung.
Crawling und Indexierung prüfen, bevor alles andere kommt
Bevor du dich um Ladezeiten oder Seitenstruktur kümmerst, stell eine Frage: Kann Google deine Seiten überhaupt finden und indexieren? Klingt banal. Ist es oft nicht.
Öffne die Google Search Console und schau dir den Indexierungsbericht an. Dort siehst du, wie viele deiner Seiten tatsächlich im Index sind und welche ausgeschlossen wurden. Große Differenzen zwischen eingereichten und indexierten URLs sind ein Warnsignal.
robots.txt prüfen: Ein häufiger Fehler ist ein zu aggressives Disallow, das versehentlich wichtige Verzeichnisse sperrt. Im schlimmsten Fall steht da Disallow: / und die ganze Seite ist für Crawler blockiert. Klingt absurd, passiert aber regelmäßig nach Relaunches oder Server-Umzügen. Die Sitemap-Direktive muss übrigens eine absolute URL sein. Sitemap: /sitemap.xml funktioniert bei vielen Crawlern nicht.
XML-Sitemap: Ist sie erreichbar? Enthält sie nur indexierbare URLs? Seiten mit noindex-Tag oder Redirect-Ziele haben in der Sitemap nichts verloren. Google sagt zwar, Widersprüche zwischen Sitemap und noindex werden aufgelöst, aber sauber ist das nicht. Und es kostet Crawl-Budget.
Soft-404-Fehler: Das sind Seiten, die technisch einen 200-Statuscode liefern, aber inhaltlich leer oder so dünn sind, dass Google sie als “nicht vorhanden” behandelt. In der Search Console tauchen sie unter “Ausgeschlossen” auf. Häufig betroffen: leere Kategorieseiten, Suchergebnisse ohne Treffer, Filterseiten ohne Produkte.
Core Web Vitals: Seit März 2026 kein Nice-to-have mehr
Googles März-2026-Core-Update hat die Karten neu gemischt. INP (Interaction to Next Paint) ist jetzt ein vollwertiger Ranking-Faktor auf Augenhöhe mit LCP und CLS. Vorher war INP ergänzend. Jetzt entscheidet es mit über Positionen.
Die Schwellenwerte sind klar:
- LCP (Largest Contentful Paint): unter 2,5 Sekunden
- INP (Interaction to Next Paint): unter 200 Millisekunden, idealerweise unter 150ms
- CLS (Cumulative Layout Shift): unter 0,1
Seiten mit einem INP über 200ms haben nach dem Update im Schnitt 0,8 Positionen verloren. Bei einem INP über 500ms waren es zwei bis vier Positionen auf umkämpften Keywords. Das klingt nach wenig, kann aber den Unterschied zwischen Seite eins und Seite zwei ausmachen.
Nur 47 % aller Websites bestehen den Core-Web-Vitals-Test. Wer seine Werte in den grünen Bereich bringt, hat also einen echten Vorteil gegenüber mehr als der Hälfte der Konkurrenz.
Wie du testest: PageSpeed Insights für einzelne URLs, die Search Console für den Gesamtüberblick. Achte besonders auf den Feldaten-Bericht, nicht nur auf die Lab-Daten. Felddaten zeigen, wie echte Nutzer deine Seite erleben.
Wenn du einen schnellen ersten Eindruck willst, bevor du tiefer einsteigst: Unser kostenloser Website-Check prüft Performance, technisches SEO, Mobile und Sicherheit in unter 30 Sekunden und zeigt dir sofort die größten Baustellen.
Mobile Optimierung und Responsive Design
Google indexiert seit Jahren ausschließlich die mobile Version deiner Seite (Mobile-First-Indexing). Wenn deine mobile Seite Inhalte weglässt, die auf Desktop sichtbar sind, existieren diese Inhalte für Google nicht.
Prüfe Folgendes: Sind alle Texte, Bilder und strukturierten Daten auf der mobilen Version vorhanden? Sind Buttons und Links groß genug, um sie ohne Zoomen zu treffen? Gibt es horizontales Scrollen? Sind Schriftgrößen lesbar ohne Pinch-to-Zoom?
Der Mobile Friendly Test von Google wurde inzwischen eingestellt. Nutze stattdessen den Lighthouse-Tab in den Chrome DevTools oder den URL-Prüfer in der Search Console.
HTTPS, Weiterleitungen und Statuscode-Hygiene
HTTPS: Jede URL muss über HTTPS laden. HTTP-Versionen müssen per 301 auf HTTPS weiterleiten. Mischformen (Mixed Content, wo die Seite HTTPS nutzt, aber Bilder oder Skripte über HTTP einbindet) verursachen Browserwarnungen und Vertrauensverlust.
Redirect-Ketten: Wenn URL A auf B weiterleitet und B auf C, verlierst du bei jedem Hop Crawl-Budget und (minimal) Link-Equity. Mehr als ein Redirect sollte die Ausnahme sein. Ketten mit drei oder mehr Hops solltest du direkt auflösen.
404 vs. 410: Seiten, die es nicht mehr gibt, sollten einen 404 oder besser 410 zurückgeben. Nicht auf die Startseite weiterleiten. Das verwirrt den Crawler und hilft dem Nutzer nicht. Wenn es eine sinnvolle Nachfolgeseite gibt, 301 dorthin.
Seitenarchitektur und interne Verlinkung
Jede wichtige Seite sollte mit maximal drei Klicks von der Startseite erreichbar sein. Das ist keine willkürliche Regel, sondern beeinflusst direkt, wie häufig Google eine Seite crawlt.
Verwaiste Seiten (Orphan Pages) sind Seiten ohne einen einzigen internen Link. Google findet sie nur über die Sitemap, und selbst dann werden sie als weniger wichtig eingestuft. Laut Semrush haben 41 % der Websites Probleme mit internem Duplicate Content, oft weil verschiedene URL-Varianten (mit/ohne Trailing Slash, mit/ohne www) auf denselben Inhalt zeigen, ohne Canonical-Tag.
Canonical-Tags: Prüfe, ob jede Seite ein selbstreferenzierendes Canonical hat. Bei paginierten Seiten, Filterseiten und URL-Parametern ist das besonders wichtig. Ein fehlendes oder falsches Canonical führt dazu, dass Google selbst entscheidet, welche Version indexiert wird. Das Ergebnis ist selten das, was du willst.
Strukturierte Daten richtig einsetzen
Schema Markup ist kein Ranking-Faktor im klassischen Sinn, aber es entscheidet darüber, ob du Rich Snippets bekommst. Sternebewertungen, FAQ-Akkordeons, Breadcrumbs in den Suchergebnissen. Das erhöht die Klickrate, und die wirkt sich indirekt auf Rankings aus.
Prüfe mit dem Rich Results Test von Google, ob dein Markup fehlerfrei ist. Häufige Fehler: fehlende Pflichtfelder, falsche Verschachtelung, Markup das nicht zum sichtbaren Seiteninhalt passt. Google straft inzwischen Seiten ab, deren Schema-Daten nicht mit dem übereinstimmen, was der Nutzer sieht.
Für Unternehmensseiten sind Organization, LocalBusiness, BreadcrumbList und FAQ die wichtigsten Schema-Typen. Wer einen Blog betreibt, sollte Article-Markup nutzen.
Die häufigsten Fehler, die fast jeder macht
Noindex auf wichtigen Seiten. Passiert oft nach einem Staging-Deploy, wenn die Entwicklungsumgebung ein globales noindex hatte und das beim Launch nicht entfernt wurde. Ein einziger Meta-Tag, und deine Seite verschwindet aus dem Index.
Widersprüche zwischen robots.txt und Sitemap. Eine URL wird per Sitemap an Google geschickt, ist aber gleichzeitig in der robots.txt blockiert. Google kann die Seite dann zwar kennen, aber nicht crawlen. Sie taucht als “Indexiert, aber durch robots.txt blockiert” in der Search Console auf.
Kein HTTPS-Redirect auf Domain-Ebene. Die Seite lädt zwar über HTTPS, aber http://deinedomain.de leitet nicht weiter. Ergebnis: Duplicate Content auf Domain-Ebene.
Ignorieren der Crawling-Statistiken. Die Search Console zeigt dir, wie oft Google deine Seite crawlt und wie der Server antwortet. Wenn die Crawl-Rate einbricht oder die Server-Antwortzeiten steigen, ist das ein Frühwarnsystem. Viele schauen nie drauf.
So gehst du ein technisches SEO Audit strukturiert an
Reihenfolge zählt. Fang bei den Grundlagen an, bevor du dich in Details verlierst.
Phase 1: Zugang prüfen. robots.txt, Sitemap, Search Console Indexierungsbericht. Kann Google deine Seiten überhaupt erreichen?
Phase 2: Statuscode-Check. Crawl deine komplette Seite mit Screaming Frog oder Sitebulb. Sortiere nach 4xx, 5xx, Redirect-Ketten. Behebe alles, was rot leuchtet.
Phase 3: Core Web Vitals. PageSpeed Insights für die wichtigsten Seitentypen (Startseite, Kategorie, Produktseite/Detailseite, Blogbeitrag). Felddaten prüfen.
Phase 4: Seitenstruktur. Klicktiefe, Orphan Pages, Canonical-Tags, interne Verlinkung.
Phase 5: Schema und Meta-Tags. Strukturierte Daten validieren, Title-Tags und Meta-Descriptions auf Länge und Keyword-Integration prüfen.
Ein gründliches Audit dauert je nach Website-Größe ein paar Stunden bis mehrere Tage. Wer das zum ersten Mal macht, sollte sich nicht hetzen. Fehler, die seit Monaten bestehen, halten auch noch eine Woche länger aus.
Willst du erstmal sehen, wo du stehst? Unser kostenloser Website-Check gibt dir in 30 Sekunden einen Überblick über Performance, SEO, Sicherheit und Mobile. Kein Account nötig, einfach URL eingeben.
Wenn du danach merkst, dass es tiefer gehen muss, oder du weder die Zeit noch die Lust hast, dich selbst durch Crawling-Statistiken und Statuscode-Tabellen zu arbeiten: Wir übernehmen das für dich. Ein SEO Audit gehört zu unseren Kernleistungen, und wir finden erfahrungsgemäß bei fast jeder Website Probleme, die sich direkt auf Rankings auswirken. Lass uns drüber reden.
Über den Autor
Gründer & Geschäftsführer, BuI Hinsche GmbH / Business.Digital
Matthias Hinsche baut seit 2006 E-Commerce-Lösungen. Vom ersten osCommerce-Modul bis zur KI-gestützten Prozessautomatisierung. Shopware Premium Extension Partner, xentral-Partner, und einer der wenigen, die sowohl Core-Entwicklung als auch betriebswirtschaftliche Prozesse wirklich verstehen.