SEO Weekly: Limit für manuelle Crawls in Search Console, Klick-Verhältnis von Anzeigen & organischen Treffern, Neues von John Mueller

Kategorie: SEO Weekly

Diese Woche berichten wir in unserem SEO Weekly Wochenrückblick über das neue Crawl-Limit in der Search Console, Sistrix-Studie über die Klicks auf AdWords-Anzeigen, und einer Aussage von John Mueller über das Crawling von Google.

Neues Crawl-Limit in der Search Console

Google hat in ihrer Search Console die Möglichkeit der manuellen Crawl-Anfragen geändert.

Vorher war es möglich:

  • eine ausgewählte URL 500 mal in einer 30-Tages-Periode zu crawlen.
  • eine ausgewählte URL mit all ihren direkten Verlinkungen 10 mal in einer 3-Tages-Periode zu crawlen.
alte-ansicht-search-console

Nach der Änderung ist diese Anzahl begrenzt worden. Nun ist es nur noch möglich:

  • eine spezielle URL 10 mal in einer 3-Tages-Periode zu crawlen.
  • eine spezielle URL und alle direkten Verlinkungen 2 mal pro Tag zu crawlen.

Die neue Begrenzung hat Auswirkungen auf das manuelle Crawl-Management. Unter Crawl-Management versteht man im SEO-Bereich die Kontrolle darüber, wie eine Suchmaschine die Seite crawlt. Durch das Crawling-Management kann man die Suchmaschine gezielt durch die Seite und das jeweilige Crawling navigieren.

Der Googlebot kann über verschiedenste Bereiche auf eure Website gelangen und diese auch wieder verlassen. Beispielsweise kann der Einstieg über ein Produkt und der Ausstieg über die Homepage erfolgen. Die Art und Weise wie eure Website intern verlinkt ist, bringt den Googlebot zu neuen Seiten und bringt Aufschluss darüber, wie die gesamte Site organisiert ist. 

Wenn eine Aktualisierung einer Seite erfolgt, oder eine neue Seite hinzugefügt wird, muss der Seitenbetreiber warten, bis Google die Site wieder besucht und beim Crawling auf die Neuerung stößt.

Durch das Crawl-Management kann man dem Googlebot auch mitgeben, von welchen Seiten er sich fernhalten soll, welche er also nicht crawlen braucht (bsp. duplicate content).

Dadurch, dass jede Website nur ein begrenztes Crawling-Budget von Google zur Verfügung steht, ist es durchaus sinnvoll sich zu überlegen, welche Seiten für die Indexierung relevant, und welche weniger relevant sind.

Durch die Änderung in der Search Console möchte Google die Websitebetreiber nochmal mehr dazu bringen, sich Gedanken über ein sinnvolles, natürliches und qualitatives Crawling und eine hochwertige Seitenorganisation zu machen. In der Vergangenheit scheint das Feature “Abruf wie durch Google” anscheinend häufiger missbraucht worden zu sein.

abruf-wie-durch-google

(Quelle: Ansicht in Google Search Console zu “Abruf wie durch Google”)

Google will die Nutzer schlussendlich davon abhalten, das manuelle Crawling einzelner Seiten ständig anzustoßen.

In Zukunft will Google die Nutzer dazu bringen, ihr Crawl-Management durch folgende Punkte natürlich und sinnvoll zu gestalten:

  • Erstellung einer (gut gepflegten) Sitemap
  • Verwendung einer robots.txt
  • Vermeidung von Duplicate Content
  • nur Seiten mit Mehrwert zu erstellen

Das Verhältnis der Klicks auf AdWords-Anzeigen und organische Treffer

Johannes Beus, Gründer und Geschäftsführer von Sistrix, hat sich mit der Thematik befasst, wie es sich mit dem Verhältnis der Klicks auf Google Anzeigen und die organischen Treffer verhält. Hierfür wurden mehr als eine Milliarde Klicks in den deutschen Google Ergebnissen analysiert. Die Daten umfassen den Zeitraum eines Jahres.

Bei der Analyse wurde nur zwischen Klick auf AdWords-Anzeigen und organische Treffer unterschieden, nicht aber noch in die Vielzahl der Sondereinbindungen wie Maps-Integration etc.

Das Ergebnis sieht wie folgt aus:

klicks-adwords-organische-treffer

Quelle: https://www.sistrix.de/news/nur-6-prozent-aller-google-klicks-gehen-auf-adwords-anzeigen/

Nur knapp 6.8% der gesamten Klicks gehen auf bezahlte Anzeigen. Die große Mehrheit, über 93%, gehen auf organische Treffer. Dies zeigt, an SEO führt kein Weg vorbei!

Weitere Quintessenzen der Analyse haben wir für euch im Folgenden zusammengefasst:

  • bei nur 1,68% gab es mindestens einen Klick auf eine AdWords-Anzeige
  • Für Longtail-Suchen gibt es in der Regel keine oder wenige AdWords Anzeigen, so dass nahezu 100% der Klicks auf organische Ergebnisse entfallen
  • je niedriger das Suchvolumen, desto höher ist der Prozentsatz der Klicks, auf die bezahlten Anzeigen
  • bei Marken/Brands und sehr umkämpften “Money-Keywords” fallen mehr Klicks auf Anzeigen als auf die organischen Treffer

Schlussendlich hält Beus jedoch fest, dass das Verhältnis zwischen Klicks auf Anzeigen und organische Treffer für jedes Keyword individuell ist.

In den Sistrix Labs wurde nun eine neue Funktion eingebaut, um sich den Wert bzw. das Verhältnis für jedes Keyword anzusehen.

sistrix-labs-neue-funktion

John Mueller beantwortet die Frage, wie oft eine Website eigentlich gecrawlt wird

Ein Website-Betreiber hatte sich mit einer Sorge an Google gewandt, dass seine Website nicht oft genug gecrawlt werden würde.

John Mueller erklärte daraufhin, dass es eine gewisse Zeit braucht, eine gesamte Seite vollständig gecrawlt und durchdrungen zu haben und dies den Server unnötig aus -und belasten würde.

Aus diesem Grund ist jede Seite mit einem begrenzten Crawling-Budget versehen und die Anzahl der Seiten, die der Bot täglich crawlt, damit limitiert.

“Wichtige” Seiten, wie die Startseite oder Kategorieseiten erster und zweiter Ebene werden vom Googlebot daher meist bevorzugt und am häufigsten gecrawlt. Eine Änderung auf einer der “wichtigen” Seiten wird sich also schneller in der Suche widerspiegeln als Änderungen an einem alten Blogpost.

John Mueller gesamte Antwort ist im Folgenden zitiert:

Looking at the whole website all at once, or even within a short period of time, can cause a significant load on a website. Googlebot tries to be polite and is limited to a certain number of pages every day. This number is automatically adjusted as we better recognize the limits of a website. Looking at portions of a website means that we have to prioritize how we crawl.

So how does this work? In general, Googlebot tries to crawl important pages more frequently to make sure that most critical pages are covered. Often this will be a websites home page or maybe higher-level category pages. New content is often mentioned and linked from there, so it’s a great place for us to start. We’ll re-crawl these pages frequently, maybe every few days. maybe even much more frequently depending on the website.

Webinar: SEO-Performance optimieren Jetzt kostenfrei anmelden

Suchbegriff eingeben und mit Enter Suche starten