Skip to content

Kontakt

  • Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Seiten aus dem Google Index entfernen

Welche Möglichkeiten gibt es URLs aus Googles Suchindex zu entfernen? Im Folgenden findest du drei Möglichkeiten, um Seiten, die fälschlicherweise von Google indexiert wurden oder die nicht mehr relevant sind, zu entfernen. Die beste Option ist dabei abhängig vom Grund der gewünschten Entfernung aus dem Index.

Option 1: Google Search Console

In der Google Search Console gibt es links in der Navigation den Menüpunkt “Entfernen”. Nachdem du diesen besuchst, hast du die Möglichkeit einen Antrag zu stellen die gewünschte URL aus dem Index zu entfernen. Laut Google ist eine Seite danach etwa sechs Monate blockiert und es benötigt einen der folgenden drei Schritte, um die URL endgültig aus den Suchergebnissen zu löschen: 

  1. Entferne die Inhalte auf der entsprechenden Seite. Dadurch kann sichergestellt werden, dass Seiten ebenfalls nicht durch andere Suchmaschinen gefunden werden können, da diese den noindex-Tag nicht berücksichtigen
  2. Erstelle einen Passwortschutz auf der Website. Dieser Schritt sorgt dafür, dass sowohl Nutzer:innen als auch der Googlebot keinen Zugriff auf die Seite haben.
  3. Versehe die Seite mit einem noindex-Tag. Dieser verhindert, dass die URL vom Googlebot gecrawlt werden kann, schützt wie bereits erwähnt jedoch nicht vor dem crawlen durch Bots anderer Suchmaschinen. Mehr Informationen dazu findest du im nächsten Abschnitt.

Option 2: Noindex

Der noindex-Tag wird dient dazu die gekennzeichnete Seite von Google aus seinem Suchmaschinenindex entfernen zu lassen. Dabei handelt es sich um einen Meta-Tag, welcher im head der robot.txt Datei hinzugefügt wird. Die robot.txt ist eine Textdatei, die dem Googlebot Anleitungen gibt, welche Seiten von ihm indexiert werden dürfen. Damit der Crawler den Anweisungen Folge leisten kann, muss diese im Hauptverzeichnis der Domain hinterlegt werden. Ein solcher Meta-Tag könnte wie folgt aussehen:

<meta name=“robots“ content=“noindex“>

Zudem ist es auch möglich das Crawlen durch einen x‑robots noindex-Tag in der Header des HTML-Codes zu verhindern. Dies würde wie folgt aussehen:

HTTP/1.1 200 OK

X-Robots-Tag: noindex

Option 3: Canonical Tag und Weiterleitungen

Falls der Grund der gewünschten Entfernung aus dem Index ist, die negativen Auswirkungen von Duplicate Content zu vermeiden, ist es ratsam stattdessen auf Canonical-Tag zurückzugreifen. 

Canonical-Tags werden verwendet, wenn zwei oder mehr URLs innerhalb einer Domain denselben Inhalt haben (Duplicate Content) und Google deshalb nicht eindeutig bestimmen kann, welche Seite für das gewählte Fokus-Keyword ranken soll. Dies führt möglicherweise zu Rankingschwankungen oder Rankingverlusten. In diesem Fall ist es nicht unbedingt nötig eine der Seiten mit Duplicate Content zu löschen, sondern es ist ratsam Canonical-Tags im Quellcode zu integrieren, welche auf die primäre URL (die Seite, die in der Google Suche ranken soll) verweisen. Dieser könnte zum Beispiel wie folgt aussehen:

<link rel=“canonical“ href=“https://www.beispiel-shop.de/verzeichnis/produkt/“ />

Zudem ist es in manchen Fällen nützlich Weiterleitungen (Redirects) einzurichten. Diese leiten sowohl die Nutzer:innen als auch den Googlebot zu einer anderen Seite. Am häufigsten wird dabei die 301-Weiterleitung benutzt, welche der Suchmaschine mitteilt, dass das Ziel der Weiterleitung in den SERPs angezeigt werden soll.