Google crawlt Webseiten, indexiert viele URLs – und zeigt einen Teil davon dennoch nie in den Suchergebnisse an. Seit der Aktualisierung des Google-Indexierungsleitfadens am 7. Juni 2024 besteht für viele Site-Betreiber ein klares Sichtbarkeitsproblem: Seiten landen im sogenannten „grauen Index“ der Google Search Console, sind also bekannt, aber nicht im Index der Suchmaschine für Nutzer sichtbar. Warum das passiert, wer betroffen ist und welche Folgen das für SEO und das Ranking hat, wird in Workshops der GEO & LLMO Academy mit technischen Experten wie Fabian Jaeckert analysiert.
Was bedeutet «Gecrawled – zurzeit nicht indexiert» und wie entsteht der graue Index
Der Report „Gecrawled – zurzeit nicht indexiert“ in der Google Search Console zeigt URLs, die der Crawler gefunden, aber nicht in den Suchindex übernommen hat. Das kann technisch gerechtfertigt sein – etwa bei noindex-Tags oder Weiterleitungen – oder auf Entscheidungen der Google-Systeme zurückgehen, wenn Inhalte als weniger relevant eingestuft werden.
Google dokumentiert zahlreiche Gründe: von Serverfehlern über robots.txt-Blockaden bis zu doppelten Inhalten. Der Bericht trennt die bekannte Menge in einen «grünen Index» (indexierte URLs) und einen «grauen Index» (nicht indexierte). Diese Unterscheidung ist zentral für Betreiber großer Shops oder Portale mit hunderttausenden URLs. Ein klares Ergebnis: Indexierung ist die Voraussetzung für Sichtbarkeit in den Suchergebnisse; ohne Index kein Ranking.

Insight: Der graue Index ist oft ein technisches Filterinstrument der Suchmaschine, nicht zwangsläufig ein inhaltliches Urteil.
Wie Praxisbeispiele aus SEO-Workshops zeigen, welche Fehler häufig sind
Analyse anhand von Academy-Fällen
In Workshops der GEO & LLMO Academy untersuchen Fabian Jaeckert und Benjamin O’Daniel regelmäßig reale Websites, darunter eine Beispielseite eines Academy-Mitglieds. Dabei treten wiederkehrende Ursachen auf: fehlende interne Verlinkung, unvollständige Sitemaps, oder Parametrisierungen, die zu massiven Duplikaten führen.
Konkretes Ergebnis aus einem Beratungsprojekt: Reduzierte man den Anteil der grauen URLs durch technische Korrekturen, stieg die Zahl indexierter Seiten deutlich – und mit ihr der organische Traffic über Google. Das zeigt, dass technische Arbeit an der Indexierung direkten Einfluss auf Sichtbarkeit und Ranking hat.
Insight: Technische SEO ist die Basis; Content-Maßnahmen greifen nur, wenn die Webseite korrekt indexierbar ist.
Praktische Schritte, Prioritäten und Folgen für Marketing-Teams
Was Marketing-Verantwortliche sofort prüfen sollten
Die Google Search Console bietet Werkzeuge: URL-Prüftool, Bericht zur Seitenindexierung und Sitemap-Filter. Google empfiehlt, vor allem die kanonischen Seiten zu sichern und zu überprüfen, ob wichtige Seiten im Bericht als indexiert auftauchen.
Bei vielen nicht indexierten URLs ist die Quelle entscheidend: Ist die Ursache «Website», kann das Team sie meist beheben; steht als Quelle «Google-Systeme», sind Änderungen am Content- oder Verlinkungsaufbau die wirksamen Hebel. In der Praxis empfiehlt sich eine Priorisierung: Startseite, Produktseiten und redaktionelle Kernthemen zuerst.
Insight: Wer das Sichtbarkeitsproblem strukturiert angeht, kann innerhalb weniger Wochen messbare Verbesserungen im organischen Traffic erzielen.
Kurz zusammengefasst: Das Phänomen, dass Google Seiten crawlt, aber nicht in den sichtbaren Index aufnimmt, hat technische und algorithmische Gründe. Die Indexierung zu kontrollieren bleibt eine Kernaufgabe jeder SEO-Strategie; wer sie vernachlässigt, riskiert, dass Inhalte trotz Crawling nie in den Suchergebnisse erscheinen.




