Technische SEO · Google Search Console
Warum Google Seiten nicht indexiert – Crawled & Gefunden erklärt
Wenn in der Google Search Console der Status „Gecrawlt – zurzeit nicht indexiert“ oder „Gefunden – zurzeit nicht indexiert“ erscheint, liegt das selten am Zufall. In diesem Artikel erkläre ich, warum Google Seiten bewusst nicht indexiert und wie man die Ursachen systematisch analysiert.

Warum „nicht indexiert“ kein technischer Zufall ist
Viele Website-Betreiber gehen davon aus, dass eine Seite automatisch indexiert wird, sobald sie online ist. In der Praxis funktioniert Google jedoch anders: Crawling und Indexierung sind zwei unterschiedliche Prozesse.
Wenn eine URL als „Gecrawlt – zurzeit nicht indexiert“ oder „Gefunden – zurzeit nicht indexiert“ angezeigt wird, bedeutet das nicht, dass Google einen Fehler gemacht hat. Es bedeutet, dass Google die Seite bewusst (noch) nicht in den Index aufgenommen hat.
Genau hier beginnt die technische Analyse: Warum entscheidet sich Google gegen eine Indexierung? Liegt es an der Struktur, am Content, an Canonical-Signalen oder an fehlender interner Verlinkung? Diese Unterscheidung ist entscheidend.
Unterschied zwischen Crawling und Indexierung
Ein häufiger Irrtum besteht darin, Crawling und Indexierung gleichzusetzen. Technisch sind es jedoch zwei getrennte Prozesse. Google kann eine Seite kennen, sie crawlen – und sich dennoch gegen eine Indexierung entscheiden.
Crawling
Beim Crawling ruft der Googlebot eine URL auf, analysiert den HTML-Code und bewertet die technischen Signale der Seite.
- Statuscode (200, 301, 404)
- Canonical-Tags
- Meta-Robots (index / noindex)
- interne Verlinkung
- Seitenstruktur
Crawling bedeutet lediglich: Google hat die Seite technisch abgerufen – nicht, dass sie automatisch im Index erscheint.
Indexierung
Die Indexierung ist der nächste Schritt: Google entscheidet, ob eine Seite ausreichend relevant, einzigartig und strukturell sauber ist, um dauerhaft im Suchindex gespeichert zu werden.
- Content-Qualität
- Duplicate-Analyse
- semantische Relevanz
- Domain-Autorität
- interne Priorisierung
Erst wenn Google eine Seite indexiert, kann sie überhaupt in den Suchergebnissen erscheinen.
Warum Crawling nicht automatisch zur Indexierung führt
Google bewertet jede Seite im Kontext der gesamten Website. Wenn Inhalte zu ähnlich sind, keine klare Suchintention erfüllen oder technisch inkonsistente Signale senden, kann Google bewusst entscheiden, die Seite nicht in den Index aufzunehmen.
Genau deshalb ist der Status „Gecrawlt – zurzeit nicht indexiert“ kein Fehlerbericht, sondern eine Bewertung. Er signalisiert, dass Google die Seite gesehen, aber aktuell nicht als indexierungswürdig eingestuft hat.
„Gefunden – zurzeit nicht indexiert“ erklärt
Dieser Status in der Google Search Console bedeutet, dass Google die URL bereits kennt – sie aber noch nicht gecrawlt hat. Das ist ein wichtiger Unterschied. Die Seite ist registriert, aber noch nicht priorisiert worden.
In der Regel erfährt Google von neuen URLs über:
- eine XML-Sitemap
- interne Verlinkung
- externe Backlinks
- frühere Crawling-Prozesse
Wenn eine Seite als „Gefunden – zurzeit nicht indexiert“ markiert ist, bedeutet das meist, dass Google sie zwar registriert hat, aber noch keine ausreichende Priorität sieht, um sie aktiv zu crawlen.
Schwache interne Verlinkung
Wenn eine neue URL nur in der Sitemap steht, aber nicht logisch in die Website-Struktur eingebunden ist, erhält sie wenig Crawling-Priorität.
Neue Website ohne Autorität
Bei neuen Domains oder Relaunches verfügt Google noch über wenig Vertrauenssignale. Dadurch wird das Crawling zunächst vorsichtiger gesteuert.
Zu viele neue URLs gleichzeitig
Wenn viele Seiten auf einmal veröffentlicht werden, priorisiert Google nicht alle sofort. Das ist kein Fehler, sondern Teil des Crawl-Managements.
Geringe strukturelle Relevanz
Seiten, die tief verschachtelt oder isoliert sind, werden häufig später gecrawlt als klar priorisierte Kernseiten.
Wichtig: Kein akutes Problem
In vielen Fällen ist dieser Status temporär. Besonders bei neuen Seiten kann es einige Tage oder Wochen dauern, bis Google das Crawling priorisiert.
Erst wenn dieser Status über einen längeren Zeitraum bestehen bleibt, sollte man die interne Verlinkung, Sitemap-Struktur und Seitenhierarchie genauer analysieren.
„Gecrawlt – zurzeit nicht indexiert“ erklärt
Dieser Status ist deutlich relevanter als „Gefunden“. Er bedeutet, dass Google die Seite bereits aktiv gecrawlt und analysiert hat – sich jedoch bewusst gegen eine Indexierung entschieden hat.
Technisch gesehen wurde die URL vollständig verarbeitet: Statuscode, HTML-Struktur, Canonical, interne Links, Content – alles wurde analysiert.
Wenn Google danach entscheidet, die Seite nicht zu indexieren, liegt die Ursache fast immer in einer qualitativen oder strukturellen Bewertung.
Dünner oder austauschbarer Content
Wenn der Inhalt keinen klaren Mehrwert bietet, zu kurz ist oder stark ähnlichen Seiten gleicht, stuft Google ihn als nicht indexierungswürdig ein.
Duplicate- oder Near-Duplicate-Content
Wenn mehrere Seiten thematisch oder strukturell sehr ähnlich sind, wählt Google eine Version aus – die anderen werden nicht indexiert.
Falsche Priorisierung durch interne Struktur
Seiten, die tief verschachtelt oder kaum intern verlinkt sind, erhalten weniger strukturelle Bedeutung innerhalb der Website.
Soft-404 oder unklare Suchintention
Seiten mit sehr wenig Substanz oder ohne klare thematische Ausrichtung können von Google als „wertlos“ interpretiert werden, selbst wenn technisch alles korrekt ist.
Canonical-Konflikte
Wenn die Seite einen Canonical auf eine andere URL setzt, wird sie bewusst nicht eigenständig indexiert – auch wenn sie gecrawlt wurde.
Interne Konkurrenz (Keyword-Kannibalisierung)
Wenn mehrere Seiten auf dieselbe Suchintention abzielen, entscheidet sich Google für eine – die anderen bleiben „gecrawlt, aber nicht indexiert“.
Warum dieser Status strategisch wichtig ist
Dieser Status ist kein technischer Defekt, sondern ein Qualitätssignal. Google entscheidet aktiv, welche Seiten in den Index aufgenommen werden. Wenn viele URLs dauerhaft in diesem Status bleiben, ist das meist ein strukturelles oder inhaltliches Problem.
Genau hier beginnt die eigentliche SEO-Arbeit: Struktur verbessern, Inhalte schärfen, interne Verlinkung stärken und Kannibalisierung vermeiden.
Technische Ursachen für fehlende Indexierung
Bevor ich an Content oder Struktur arbeite, kläre ich immer zuerst, ob Google überhaupt indexieren darf und ob die technischen Signale widerspruchsfrei sind. Viele Indexierungsprobleme wirken „mysteriös“, sind aber am Ende schlicht ein technischer Blocker oder ein Konflikt zwischen Canonical, Robots und URL-Struktur.
Noindex (Meta-Robots oder Header)
Wenn eine Seite noindex enthält (als Meta-Tag oder über den HTTP-Header X-Robots-Tag), wird Google sie nicht dauerhaft indexieren – selbst wenn sie gecrawlt wurde.
Check: URL in der Search Console prüfen (URL-Prüfung) und zusätzlich den HTML-Quelltext bzw. Response-Header kontrollieren.
robots.txt blockiert wichtige Bereiche
Eine robots.txt verhindert das Crawling bestimmter Pfade. Wenn dort versehentlich wichtige Verzeichnisse gesperrt sind, kann Google die Seite nicht zuverlässig verarbeiten – und Indexierung wird schwierig bzw. inkonsistent.
Check: robots.txt live prüfen und den robots.txt-Test in der Search Console nutzen (vor allem nach Relaunches).
Canonical zeigt auf eine andere URL
Wenn der Canonical auf eine andere Seite zeigt, signalisiert man Google: „Diese URL ist nicht die Hauptversion.“ Dann wird häufig die Canonical-URL indexiert – und die aktuelle bleibt außen vor.
Typisch: Parameter-URLs, unterschiedliche Slash-Logik, HTTP/HTTPS-Mischung oder falsche Canonical-Generierung in Templates.
Falsche Statuscodes & Redirect-Ketten
Seiten, die nicht stabil mit Status 200 ausliefern (z. B. 3xx/4xx/5xx), werden häufig nicht sauber indexiert. Besonders problematisch sind Redirect-Ketten nach Migrationen oder bei inkonsistenten Trailing-Slash-Regeln.
Check: Response-Header und Redirect-Chain (auch mobil). Ziel: eine klare, direkte 200-URL ohne Umwege.
Parameter-URLs & Tracking-Varianten
UTM-Parameter, Sortierungen, Pagination oder Filter erzeugen oft viele URL-Varianten. Google crawlt sie, bewertet sie aber häufig als redundant – besonders, wenn Canonical/Indexierungsregeln nicht sauber sind.
Fix: Canonical konsequent, Parameter-Handling sauber definieren, und nur kanonische Seiten intern stark verlinken.
Rendering / JS-Abhängigkeit (ein unterschätztes Thema)
Wenn zentraler Content nur clientseitig nachgeladen wird, kann Google die Seite zwar crawlen, aber Inhalte eventuell nicht so bewerten, wie erwartet. Das betrifft vor allem SPA-Setups oder falsch konfigurierte Rendering-Strategien.
Check: URL-Prüfung (gerenderte Seite ansehen), View-Source vs. gerenderte HTML-Ausgabe vergleichen.
Kurz-Check: Darf Google diese URL indexieren?
- Status 200 (keine Redirect-Kette)
- kein
noindex(Meta oder Header) - robots.txt blockiert nicht
- Canonical zeigt auf dieselbe URL
- URL ist intern sinnvoll verlinkt
Wenn diese Punkte sauber sind, liegt die Ursache in vielen Fällen eher in Struktur, interner Priorisierung oder Content-Qualität – genau darum geht es in den nächsten Abschnitten.
Interne Verlinkung & Strukturprobleme
Selbst technisch saubere Seiten werden nicht zuverlässig indexiert, wenn sie strukturell keine klare Rolle innerhalb der Website haben. Google bewertet nicht nur einzelne URLs – sondern die gesamte Informationsarchitektur.
Interne Verlinkung ist für Google ein Priorisierungssignal. Seiten, die direkt von wichtigen Bereichen (Startseite, Hauptnavigation, Kategorien) verlinkt sind, erhalten deutlich mehr strukturelle Bedeutung als isolierte URLs.
Wenn eine Seite zwar existiert, aber kaum interne Links erhält, wird sie häufig als sekundär oder unwichtig eingestuft – selbst wenn der Content qualitativ gut ist.
Zu tiefe Seitenstruktur
Seiten, die erst nach mehreren Klicks erreichbar sind, werden seltener gecrawlt und erhalten weniger interne Autorität. Besonders bei komplexen Websites entsteht hier schnell eine Hierarchie-Schieflage.
Isolierte URLs ohne Kontext
Seiten, die nur über die Sitemap erreichbar sind, aber keine kontextuelle Verlinkung im Content haben, gelten als strukturell schwach eingebunden.
Fehlende thematische Cluster
Wenn Inhalte nicht logisch miteinander verknüpft sind, erkennt Google keine klare Themenstruktur. Das schwächt die Relevanz einzelner Seiten.
Übermäßige interne Konkurrenz
Wenn mehrere Seiten intern gleich stark verlinkt sind und dieselbe Suchintention bedienen, entsteht Kannibalisierung – Google wählt eine URL, andere bleiben unindexiert.
Struktur schlägt Einzelseite
Google denkt nicht in einzelnen URLs, sondern in thematischen Zusammenhängen. Eine Seite wird wahrscheinlicher indexiert, wenn sie klar in ein Content-Cluster eingebunden ist, regelmäßig intern verlinkt wird und eine erkennbare strategische Rolle erfüllt.
Deshalb analysiere ich bei Indexierungsproblemen immer zuerst die interne Architektur – nicht nur den Content der einzelnen Seite.
Content-Probleme aus Google-Sicht
Wenn eine Seite technisch sauber ist, korrekt verlinkt wird und dennoch nicht indexiert wird, liegt die Ursache häufig in der inhaltlichen Bewertung. Google entscheidet nicht nur nach technischer Erreichbarkeit – sondern nach Relevanz, Mehrwert und thematischer Klarheit.
Google bewertet Inhalte im Kontext des gesamten Webs. Wenn eine Seite keinen erkennbaren Mehrwert bietet oder stark vergleichbaren Seiten ähnelt, sinkt die Wahrscheinlichkeit einer dauerhaften Indexierung deutlich.
Keine klare Suchintention
Wenn nicht eindeutig erkennbar ist, für welche Suchanfrage eine Seite relevant sein soll, fehlt Google die thematische Einordnung. Unklare oder zu breite Inhalte werden häufig nicht priorisiert.
Zu allgemeiner oder austauschbarer Inhalt
Seiten, die lediglich Standard-Informationen wiederholen, ohne eigene Perspektive oder Struktur, bieten keinen zusätzlichen Mehrwert gegenüber bereits indexierten Inhalten.
Interne Kannibalisierung
Wenn mehrere Seiten dasselbe Keyword oder dieselbe Suchintention bedienen, entsteht Konkurrenz innerhalb der eigenen Domain. Google wählt eine URL – die anderen bleiben oft ungeindexiert.
Fehlende thematische Tiefe
Oberflächliche Inhalte ohne klare Struktur, ohne Zwischenüberschriften oder ohne semantische Abdeckung relevanter Aspekte wirken aus Googles Sicht unvollständig.
Warum Google selektiv indexiert
Google versucht, den Index möglichst effizient und qualitativ hochwertig zu halten. Nicht jede technisch erreichbare Seite wird dauerhaft aufgenommen.
Wenn eine URL keinen klaren thematischen Fokus, keine eigenständige Perspektive oder keinen strukturellen Mehrwert bietet, ist es aus Googles Sicht sinnvoller, sie nicht zu indexieren.
Genau deshalb ist Indexierung keine rein technische Frage – sondern immer auch eine strategische Content-Entscheidung.
Wie ich Indexierungsprobleme analysiere (Praxis-Workflow)
Wenn Seiten nicht indexiert werden, arbeite ich nicht mit Vermutungen, sondern mit einer klaren Reihenfolge. Ziel ist es, widersprüchliche Signale systematisch auszuschließen – bevor man am Content oder an der Struktur unnötig Änderungen vornimmt.
1. URL-Prüfung in der Google Search Console
Zuerst prüfe ich die konkrete URL direkt in der Search Console. Wichtig ist hier nicht nur der Status, sondern auch:
- Ist die URL indexierbar?
- Welcher Canonical wird erkannt?
- Gab es ein Crawling?
- Gibt es Render-Probleme?
2. Statuscode & technische Signale prüfen
Danach kontrolliere ich die tatsächliche Server-Antwort. Eine saubere 200-URL ohne Redirect-Ketten ist Voraussetzung.
- HTTP-Status (200?)
- Redirects?
- Meta-Robots / X-Robots-Tag
- Canonical identisch?
3. Interne Verlinkung analysieren
Ich prüfe, wie stark die Seite intern eingebunden ist:
- Wird sie aus relevanten Bereichen verlinkt?
- Existieren kontextuelle Textlinks?
- Wie tief liegt sie in der Hierarchie?
Seiten ohne interne Signale werden selten priorisiert.
4. Content & Suchintention bewerten
Erst wenn die Technik sauber ist, analysiere ich den inhaltlichen Mehrwert:
- Erfüllt die Seite eine klare Suchintention?
- Ist sie eigenständig genug?
- Besteht interne Konkurrenz?
- Ist der Inhalt strukturiert und vollständig?
5. Sitemap-Abgleich
Abschließend prüfe ich, ob die URL korrekt in der Sitemap enthalten ist – und ob sie dort ausschließlich in kanonischer Form erscheint.
Die Sitemap ist kein Ranking-Faktor, aber ein wichtiges Konsistenzsignal.
Warum Reihenfolge entscheidend ist
Viele beginnen bei Indexierungsproblemen sofort mit Content-Anpassungen. In der Praxis liegt die Ursache jedoch oft in technischen oder strukturellen Details.
Eine saubere Analyse spart Zeit – und verhindert, dass man Symptome behandelt, statt die eigentliche Ursache zu lösen.
Konkrete Maßnahmen zur Lösung
Sobald die Ursache identifiziert ist, geht es darum, gezielt Signale zu stärken – nicht blind Änderungen vorzunehmen. Indexierung entsteht durch konsistente, klare und widerspruchsfreie Signale.
Content schärfen statt verlängern
Mehr Text allein löst kein Indexierungsproblem. Entscheidend ist die klare Ausrichtung auf eine Suchintention und eine saubere Struktur.
- klare H2-Struktur
- eigenständiger Mehrwert
- keine Wiederholungen anderer Seiten
- präzise thematische Fokussierung
Interne Verlinkung gezielt stärken
Seiten müssen strukturell Bedeutung erhalten. Das geschieht nicht über die Sitemap, sondern über interne Links.
- Verlinkung aus relevanten Hauptseiten
- kontextuelle Textlinks im Content
- Einbindung in thematische Cluster
Canonical & technische Signale bereinigen
Jede URL muss sich selbst als kanonische Version definieren – sofern sie eigenständig indexiert werden soll.
- kein widersprüchlicher Canonical
- keine Redirect-Ketten
- kein verstecktes Noindex
- stabile Statuscodes (200)
Kannibalisierung reduzieren
Wenn mehrere Seiten dieselbe Suchintention bedienen, sollte eine klare Hauptseite definiert werden.
- Zusammenführen ähnlicher Inhalte
- interne Verlinkung auf Haupt-URL bündeln
- klare Keyword-Zuordnung
Geduld & erneute Prüfung
Nach strukturellen Anpassungen braucht Google Zeit. Die erneute URL-Prüfung kann angestoßen werden, ersetzt aber keine strukturelle Qualität.
In vielen Fällen erfolgt die Indexierung innerhalb einiger Tage oder Wochen – vorausgesetzt, die Signale sind konsistent.
Indexierung ist das Ergebnis klarer Signale
Google indexiert keine Seiten „zufällig“. Jede Entscheidung basiert auf strukturellen, technischen und inhaltlichen Bewertungen.
Wer diese Signale bewusst steuert, reduziert langfristig Indexierungsprobleme – statt sie nur reaktiv zu behandeln.
Fazit
Wenn Google Seiten nicht indexiert, liegt die Ursache selten in einem „Fehler“ – sondern in einer bewussten Bewertung. Crawling und Indexierung sind zwei getrennte Prozesse, und erst wenn technische, strukturelle und inhaltliche Signale konsistent sind, entsteht eine stabile Indexierung.
Die häufigsten Probleme entstehen durch:
- widersprüchliche Canonical-Signale
- schwache interne Verlinkung
- fehlende thematische Klarheit
- interne Konkurrenz zwischen ähnlichen Seiten
- technische Inkonsistenzen nach Relaunches
Wer Indexierungsprobleme strukturiert analysiert, vermeidet unnötige Änderungen und konzentriert sich auf die eigentlichen Ursachen. Technische SEO bedeutet nicht, möglichst viele Optimierungen umzusetzen – sondern klare, widerspruchsfreie Signale zu senden.
Eine stabile Indexierung ist kein Zufall, sondern das Ergebnis sauberer Architektur, klarer Content-Strategie und technischer Konsistenz.
