Wien Webstudio Logo

Technische SEO · Google Search Console

Warum Google Seiten nicht indexiert – Crawled & Gefunden erklärt

Wenn in der Google Search Console der Status „Gecrawlt – zurzeit nicht indexiert“ oder „Gefunden – zurzeit nicht indexiert“ erscheint, liegt das selten am Zufall. In diesem Artikel erkläre ich, warum Google Seiten bewusst nicht indexiert und wie man die Ursachen systematisch analysiert.

Von Oleksii Piltenko · SEO & Webentwicklung · Wien
Google Search Console Status Gecrawlt – zurzeit nicht indexiert

Warum „nicht indexiert“ kein technischer Zufall ist

Viele Website-Betreiber gehen davon aus, dass eine Seite automatisch indexiert wird, sobald sie online ist. In der Praxis funktioniert Google jedoch anders: Crawling und Indexierung sind zwei unterschiedliche Prozesse.

Wenn eine URL als „Gecrawlt – zurzeit nicht indexiert“ oder „Gefunden – zurzeit nicht indexiert“ angezeigt wird, bedeutet das nicht, dass Google einen Fehler gemacht hat. Es bedeutet, dass Google die Seite bewusst (noch) nicht in den Index aufgenommen hat.

Genau hier beginnt die technische Analyse: Warum entscheidet sich Google gegen eine Indexierung? Liegt es an der Struktur, am Content, an Canonical-Signalen oder an fehlender interner Verlinkung? Diese Unterscheidung ist entscheidend.

Unterschied zwischen Crawling und Indexierung

Ein häufiger Irrtum besteht darin, Crawling und Indexierung gleichzusetzen. Technisch sind es jedoch zwei getrennte Prozesse. Google kann eine Seite kennen, sie crawlen – und sich dennoch gegen eine Indexierung entscheiden.

Crawling

Beim Crawling ruft der Googlebot eine URL auf, analysiert den HTML-Code und bewertet die technischen Signale der Seite.

  • Statuscode (200, 301, 404)
  • Canonical-Tags
  • Meta-Robots (index / noindex)
  • interne Verlinkung
  • Seitenstruktur

Crawling bedeutet lediglich: Google hat die Seite technisch abgerufen – nicht, dass sie automatisch im Index erscheint.

Indexierung

Die Indexierung ist der nächste Schritt: Google entscheidet, ob eine Seite ausreichend relevant, einzigartig und strukturell sauber ist, um dauerhaft im Suchindex gespeichert zu werden.

  • Content-Qualität
  • Duplicate-Analyse
  • semantische Relevanz
  • Domain-Autorität
  • interne Priorisierung

Erst wenn Google eine Seite indexiert, kann sie überhaupt in den Suchergebnissen erscheinen.

Warum Crawling nicht automatisch zur Indexierung führt

Google bewertet jede Seite im Kontext der gesamten Website. Wenn Inhalte zu ähnlich sind, keine klare Suchintention erfüllen oder technisch inkonsistente Signale senden, kann Google bewusst entscheiden, die Seite nicht in den Index aufzunehmen.

Genau deshalb ist der Status „Gecrawlt – zurzeit nicht indexiert“ kein Fehlerbericht, sondern eine Bewertung. Er signalisiert, dass Google die Seite gesehen, aber aktuell nicht als indexierungswürdig eingestuft hat.

„Gefunden – zurzeit nicht indexiert“ erklärt

Dieser Status in der Google Search Console bedeutet, dass Google die URL bereits kennt – sie aber noch nicht gecrawlt hat. Das ist ein wichtiger Unterschied. Die Seite ist registriert, aber noch nicht priorisiert worden.

In der Regel erfährt Google von neuen URLs über:

  • eine XML-Sitemap
  • interne Verlinkung
  • externe Backlinks
  • frühere Crawling-Prozesse

Wenn eine Seite als „Gefunden – zurzeit nicht indexiert“ markiert ist, bedeutet das meist, dass Google sie zwar registriert hat, aber noch keine ausreichende Priorität sieht, um sie aktiv zu crawlen.

Schwache interne Verlinkung

Wenn eine neue URL nur in der Sitemap steht, aber nicht logisch in die Website-Struktur eingebunden ist, erhält sie wenig Crawling-Priorität.

Neue Website ohne Autorität

Bei neuen Domains oder Relaunches verfügt Google noch über wenig Vertrauenssignale. Dadurch wird das Crawling zunächst vorsichtiger gesteuert.

Zu viele neue URLs gleichzeitig

Wenn viele Seiten auf einmal veröffentlicht werden, priorisiert Google nicht alle sofort. Das ist kein Fehler, sondern Teil des Crawl-Managements.

Geringe strukturelle Relevanz

Seiten, die tief verschachtelt oder isoliert sind, werden häufig später gecrawlt als klar priorisierte Kernseiten.

Wichtig: Kein akutes Problem

In vielen Fällen ist dieser Status temporär. Besonders bei neuen Seiten kann es einige Tage oder Wochen dauern, bis Google das Crawling priorisiert.

Erst wenn dieser Status über einen längeren Zeitraum bestehen bleibt, sollte man die interne Verlinkung, Sitemap-Struktur und Seitenhierarchie genauer analysieren.

„Gecrawlt – zurzeit nicht indexiert“ erklärt

Dieser Status ist deutlich relevanter als „Gefunden“. Er bedeutet, dass Google die Seite bereits aktiv gecrawlt und analysiert hat – sich jedoch bewusst gegen eine Indexierung entschieden hat.

Technisch gesehen wurde die URL vollständig verarbeitet: Statuscode, HTML-Struktur, Canonical, interne Links, Content – alles wurde analysiert.

Wenn Google danach entscheidet, die Seite nicht zu indexieren, liegt die Ursache fast immer in einer qualitativen oder strukturellen Bewertung.

Dünner oder austauschbarer Content

Wenn der Inhalt keinen klaren Mehrwert bietet, zu kurz ist oder stark ähnlichen Seiten gleicht, stuft Google ihn als nicht indexierungswürdig ein.

Duplicate- oder Near-Duplicate-Content

Wenn mehrere Seiten thematisch oder strukturell sehr ähnlich sind, wählt Google eine Version aus – die anderen werden nicht indexiert.

Falsche Priorisierung durch interne Struktur

Seiten, die tief verschachtelt oder kaum intern verlinkt sind, erhalten weniger strukturelle Bedeutung innerhalb der Website.

Soft-404 oder unklare Suchintention

Seiten mit sehr wenig Substanz oder ohne klare thematische Ausrichtung können von Google als „wertlos“ interpretiert werden, selbst wenn technisch alles korrekt ist.

Canonical-Konflikte

Wenn die Seite einen Canonical auf eine andere URL setzt, wird sie bewusst nicht eigenständig indexiert – auch wenn sie gecrawlt wurde.

Interne Konkurrenz (Keyword-Kannibalisierung)

Wenn mehrere Seiten auf dieselbe Suchintention abzielen, entscheidet sich Google für eine – die anderen bleiben „gecrawlt, aber nicht indexiert“.

Warum dieser Status strategisch wichtig ist

Dieser Status ist kein technischer Defekt, sondern ein Qualitätssignal. Google entscheidet aktiv, welche Seiten in den Index aufgenommen werden. Wenn viele URLs dauerhaft in diesem Status bleiben, ist das meist ein strukturelles oder inhaltliches Problem.

Genau hier beginnt die eigentliche SEO-Arbeit: Struktur verbessern, Inhalte schärfen, interne Verlinkung stärken und Kannibalisierung vermeiden.

Technische Ursachen für fehlende Indexierung

Bevor ich an Content oder Struktur arbeite, kläre ich immer zuerst, ob Google überhaupt indexieren darf und ob die technischen Signale widerspruchsfrei sind. Viele Indexierungsprobleme wirken „mysteriös“, sind aber am Ende schlicht ein technischer Blocker oder ein Konflikt zwischen Canonical, Robots und URL-Struktur.

Noindex (Meta-Robots oder Header)

Wenn eine Seite noindex enthält (als Meta-Tag oder über den HTTP-Header X-Robots-Tag), wird Google sie nicht dauerhaft indexieren – selbst wenn sie gecrawlt wurde.

Check: URL in der Search Console prüfen (URL-Prüfung) und zusätzlich den HTML-Quelltext bzw. Response-Header kontrollieren.

robots.txt blockiert wichtige Bereiche

Eine robots.txt verhindert das Crawling bestimmter Pfade. Wenn dort versehentlich wichtige Verzeichnisse gesperrt sind, kann Google die Seite nicht zuverlässig verarbeiten – und Indexierung wird schwierig bzw. inkonsistent.

Check: robots.txt live prüfen und den robots.txt-Test in der Search Console nutzen (vor allem nach Relaunches).

Canonical zeigt auf eine andere URL

Wenn der Canonical auf eine andere Seite zeigt, signalisiert man Google: „Diese URL ist nicht die Hauptversion.“ Dann wird häufig die Canonical-URL indexiert – und die aktuelle bleibt außen vor.

Typisch: Parameter-URLs, unterschiedliche Slash-Logik, HTTP/HTTPS-Mischung oder falsche Canonical-Generierung in Templates.

Falsche Statuscodes & Redirect-Ketten

Seiten, die nicht stabil mit Status 200 ausliefern (z. B. 3xx/4xx/5xx), werden häufig nicht sauber indexiert. Besonders problematisch sind Redirect-Ketten nach Migrationen oder bei inkonsistenten Trailing-Slash-Regeln.

Check: Response-Header und Redirect-Chain (auch mobil). Ziel: eine klare, direkte 200-URL ohne Umwege.

Parameter-URLs & Tracking-Varianten

UTM-Parameter, Sortierungen, Pagination oder Filter erzeugen oft viele URL-Varianten. Google crawlt sie, bewertet sie aber häufig als redundant – besonders, wenn Canonical/Indexierungsregeln nicht sauber sind.

Fix: Canonical konsequent, Parameter-Handling sauber definieren, und nur kanonische Seiten intern stark verlinken.

Rendering / JS-Abhängigkeit (ein unterschätztes Thema)

Wenn zentraler Content nur clientseitig nachgeladen wird, kann Google die Seite zwar crawlen, aber Inhalte eventuell nicht so bewerten, wie erwartet. Das betrifft vor allem SPA-Setups oder falsch konfigurierte Rendering-Strategien.

Check: URL-Prüfung (gerenderte Seite ansehen), View-Source vs. gerenderte HTML-Ausgabe vergleichen.

Kurz-Check: Darf Google diese URL indexieren?

  • Status 200 (keine Redirect-Kette)
  • kein noindex (Meta oder Header)
  • robots.txt blockiert nicht
  • Canonical zeigt auf dieselbe URL
  • URL ist intern sinnvoll verlinkt

Wenn diese Punkte sauber sind, liegt die Ursache in vielen Fällen eher in Struktur, interner Priorisierung oder Content-Qualität – genau darum geht es in den nächsten Abschnitten.

Interne Verlinkung & Strukturprobleme

Selbst technisch saubere Seiten werden nicht zuverlässig indexiert, wenn sie strukturell keine klare Rolle innerhalb der Website haben. Google bewertet nicht nur einzelne URLs – sondern die gesamte Informationsarchitektur.

Interne Verlinkung ist für Google ein Priorisierungssignal. Seiten, die direkt von wichtigen Bereichen (Startseite, Hauptnavigation, Kategorien) verlinkt sind, erhalten deutlich mehr strukturelle Bedeutung als isolierte URLs.

Wenn eine Seite zwar existiert, aber kaum interne Links erhält, wird sie häufig als sekundär oder unwichtig eingestuft – selbst wenn der Content qualitativ gut ist.

Zu tiefe Seitenstruktur

Seiten, die erst nach mehreren Klicks erreichbar sind, werden seltener gecrawlt und erhalten weniger interne Autorität. Besonders bei komplexen Websites entsteht hier schnell eine Hierarchie-Schieflage.

Isolierte URLs ohne Kontext

Seiten, die nur über die Sitemap erreichbar sind, aber keine kontextuelle Verlinkung im Content haben, gelten als strukturell schwach eingebunden.

Fehlende thematische Cluster

Wenn Inhalte nicht logisch miteinander verknüpft sind, erkennt Google keine klare Themenstruktur. Das schwächt die Relevanz einzelner Seiten.

Übermäßige interne Konkurrenz

Wenn mehrere Seiten intern gleich stark verlinkt sind und dieselbe Suchintention bedienen, entsteht Kannibalisierung – Google wählt eine URL, andere bleiben unindexiert.

Struktur schlägt Einzelseite

Google denkt nicht in einzelnen URLs, sondern in thematischen Zusammenhängen. Eine Seite wird wahrscheinlicher indexiert, wenn sie klar in ein Content-Cluster eingebunden ist, regelmäßig intern verlinkt wird und eine erkennbare strategische Rolle erfüllt.

Deshalb analysiere ich bei Indexierungsproblemen immer zuerst die interne Architektur – nicht nur den Content der einzelnen Seite.

Content-Probleme aus Google-Sicht

Wenn eine Seite technisch sauber ist, korrekt verlinkt wird und dennoch nicht indexiert wird, liegt die Ursache häufig in der inhaltlichen Bewertung. Google entscheidet nicht nur nach technischer Erreichbarkeit – sondern nach Relevanz, Mehrwert und thematischer Klarheit.

Google bewertet Inhalte im Kontext des gesamten Webs. Wenn eine Seite keinen erkennbaren Mehrwert bietet oder stark vergleichbaren Seiten ähnelt, sinkt die Wahrscheinlichkeit einer dauerhaften Indexierung deutlich.

Keine klare Suchintention

Wenn nicht eindeutig erkennbar ist, für welche Suchanfrage eine Seite relevant sein soll, fehlt Google die thematische Einordnung. Unklare oder zu breite Inhalte werden häufig nicht priorisiert.

Zu allgemeiner oder austauschbarer Inhalt

Seiten, die lediglich Standard-Informationen wiederholen, ohne eigene Perspektive oder Struktur, bieten keinen zusätzlichen Mehrwert gegenüber bereits indexierten Inhalten.

Interne Kannibalisierung

Wenn mehrere Seiten dasselbe Keyword oder dieselbe Suchintention bedienen, entsteht Konkurrenz innerhalb der eigenen Domain. Google wählt eine URL – die anderen bleiben oft ungeindexiert.

Fehlende thematische Tiefe

Oberflächliche Inhalte ohne klare Struktur, ohne Zwischenüberschriften oder ohne semantische Abdeckung relevanter Aspekte wirken aus Googles Sicht unvollständig.

Warum Google selektiv indexiert

Google versucht, den Index möglichst effizient und qualitativ hochwertig zu halten. Nicht jede technisch erreichbare Seite wird dauerhaft aufgenommen.

Wenn eine URL keinen klaren thematischen Fokus, keine eigenständige Perspektive oder keinen strukturellen Mehrwert bietet, ist es aus Googles Sicht sinnvoller, sie nicht zu indexieren.

Genau deshalb ist Indexierung keine rein technische Frage – sondern immer auch eine strategische Content-Entscheidung.

Wie ich Indexierungsprobleme analysiere (Praxis-Workflow)

Wenn Seiten nicht indexiert werden, arbeite ich nicht mit Vermutungen, sondern mit einer klaren Reihenfolge. Ziel ist es, widersprüchliche Signale systematisch auszuschließen – bevor man am Content oder an der Struktur unnötig Änderungen vornimmt.

1. URL-Prüfung in der Google Search Console

Zuerst prüfe ich die konkrete URL direkt in der Search Console. Wichtig ist hier nicht nur der Status, sondern auch:

  • Ist die URL indexierbar?
  • Welcher Canonical wird erkannt?
  • Gab es ein Crawling?
  • Gibt es Render-Probleme?

2. Statuscode & technische Signale prüfen

Danach kontrolliere ich die tatsächliche Server-Antwort. Eine saubere 200-URL ohne Redirect-Ketten ist Voraussetzung.

  • HTTP-Status (200?)
  • Redirects?
  • Meta-Robots / X-Robots-Tag
  • Canonical identisch?

3. Interne Verlinkung analysieren

Ich prüfe, wie stark die Seite intern eingebunden ist:

  • Wird sie aus relevanten Bereichen verlinkt?
  • Existieren kontextuelle Textlinks?
  • Wie tief liegt sie in der Hierarchie?

Seiten ohne interne Signale werden selten priorisiert.

4. Content & Suchintention bewerten

Erst wenn die Technik sauber ist, analysiere ich den inhaltlichen Mehrwert:

  • Erfüllt die Seite eine klare Suchintention?
  • Ist sie eigenständig genug?
  • Besteht interne Konkurrenz?
  • Ist der Inhalt strukturiert und vollständig?

5. Sitemap-Abgleich

Abschließend prüfe ich, ob die URL korrekt in der Sitemap enthalten ist – und ob sie dort ausschließlich in kanonischer Form erscheint.

Die Sitemap ist kein Ranking-Faktor, aber ein wichtiges Konsistenzsignal.

Warum Reihenfolge entscheidend ist

Viele beginnen bei Indexierungsproblemen sofort mit Content-Anpassungen. In der Praxis liegt die Ursache jedoch oft in technischen oder strukturellen Details.

Eine saubere Analyse spart Zeit – und verhindert, dass man Symptome behandelt, statt die eigentliche Ursache zu lösen.

Konkrete Maßnahmen zur Lösung

Sobald die Ursache identifiziert ist, geht es darum, gezielt Signale zu stärken – nicht blind Änderungen vorzunehmen. Indexierung entsteht durch konsistente, klare und widerspruchsfreie Signale.

Content schärfen statt verlängern

Mehr Text allein löst kein Indexierungsproblem. Entscheidend ist die klare Ausrichtung auf eine Suchintention und eine saubere Struktur.

  • klare H2-Struktur
  • eigenständiger Mehrwert
  • keine Wiederholungen anderer Seiten
  • präzise thematische Fokussierung

Interne Verlinkung gezielt stärken

Seiten müssen strukturell Bedeutung erhalten. Das geschieht nicht über die Sitemap, sondern über interne Links.

  • Verlinkung aus relevanten Hauptseiten
  • kontextuelle Textlinks im Content
  • Einbindung in thematische Cluster

Canonical & technische Signale bereinigen

Jede URL muss sich selbst als kanonische Version definieren – sofern sie eigenständig indexiert werden soll.

  • kein widersprüchlicher Canonical
  • keine Redirect-Ketten
  • kein verstecktes Noindex
  • stabile Statuscodes (200)

Kannibalisierung reduzieren

Wenn mehrere Seiten dieselbe Suchintention bedienen, sollte eine klare Hauptseite definiert werden.

  • Zusammenführen ähnlicher Inhalte
  • interne Verlinkung auf Haupt-URL bündeln
  • klare Keyword-Zuordnung

Geduld & erneute Prüfung

Nach strukturellen Anpassungen braucht Google Zeit. Die erneute URL-Prüfung kann angestoßen werden, ersetzt aber keine strukturelle Qualität.

In vielen Fällen erfolgt die Indexierung innerhalb einiger Tage oder Wochen – vorausgesetzt, die Signale sind konsistent.

Indexierung ist das Ergebnis klarer Signale

Google indexiert keine Seiten „zufällig“. Jede Entscheidung basiert auf strukturellen, technischen und inhaltlichen Bewertungen.

Wer diese Signale bewusst steuert, reduziert langfristig Indexierungsprobleme – statt sie nur reaktiv zu behandeln.

Fazit

Wenn Google Seiten nicht indexiert, liegt die Ursache selten in einem „Fehler“ – sondern in einer bewussten Bewertung. Crawling und Indexierung sind zwei getrennte Prozesse, und erst wenn technische, strukturelle und inhaltliche Signale konsistent sind, entsteht eine stabile Indexierung.

Die häufigsten Probleme entstehen durch:

  • widersprüchliche Canonical-Signale
  • schwache interne Verlinkung
  • fehlende thematische Klarheit
  • interne Konkurrenz zwischen ähnlichen Seiten
  • technische Inkonsistenzen nach Relaunches

Wer Indexierungsprobleme strukturiert analysiert, vermeidet unnötige Änderungen und konzentriert sich auf die eigentlichen Ursachen. Technische SEO bedeutet nicht, möglichst viele Optimierungen umzusetzen – sondern klare, widerspruchsfreie Signale zu senden.

Eine stabile Indexierung ist kein Zufall, sondern das Ergebnis sauberer Architektur, klarer Content-Strategie und technischer Konsistenz.