Skip to content

Kontakt

  • Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Google Algorithmus

Um sich in der Masse an Informationen des World Wide Webs zurecht zu finden, kommt man an Suchmaschinen wie Google nicht vorbei. Wie die Algorithmen uns dabei helfen, nur die relevantesten Ergebnisse für unsere Suchanfragen angezeigt zu bekommen, erklären wir im Folgenden.

Was ist ein Algorithmus?

Algorithmen beschreiben mathematisch formulierte Lösungswege für definierte Aufgaben. Sie bestehen aus einer endlichen Zahl einzelner Lösungsschritte. Gibt man nun einen Suchbegriff ein, durchsucht der Algorithmus einen festgelegten Suchraum nach Objekten und Mustern mit vorgegebenen Eigenschaften.

Der Google Algorithmus basiert auf dem PageRank Algorithmus, der von den Google Gründern Larry Page und Sergey Brin in den 1990er Jahren entwickelt wurde. Dieses Verfahren bewertet Webseiten anhand ihrer Verlinkungsstruktur und weist jedem Element ein Gewicht zu. Je mehr Links zu anderen relevanten Webseiten vorhanden sind, desto höher ist das Gewicht bzw. desto besser wird diese bewertet . Der Algorithmus sortiert diese Links dem Gewicht entsprechend und erstellt so ein Ranking bei einer Suchanfrage.

Mit den Jahren ist der Algorithmus natürlich komplexer geworden. Heute verwendet Google mehrere Algorithmen mit hunderten von Variablen, die ständig überarbeitet werden.

Wie arbeitet der Google Algorithmus?

Sucht man beispielsweise nach “KFZ Werkstatt Osnabrück”, wird zuerst eine Wortanalyse durchgeführt, um die Suchanfrage zu verstehen. Mit Hilfe von Sprachmodellen sucht Google in seinem Web Index nach den passenden Wörtern. Diese Modelle können sogar Rechtschreibfehler erkennen, die Art der Suchanfrage ermitteln und auch Synonyme identifizieren.

Nach der Wortanalyse erfolgt der Abgleich des Suchbegriffes, um die passenden Webseiten im Index zu finden. Dabei wird analysiert wie häufig und wo ein Keyword auf einer Seite vorkommt. Da hier Millionen von Webseiten in Frage kommen, müssen die Algorithmen erst feststellen wie nützlich jede Einzelne ist und diese in eine Reihenfolge bringen. Hunderte Variablen analysieren dafür diverse Faktoren für ein optimales Ranking.

  • Der wichtigste Faktor ist mittlerweile der Content einer Seite. Dieser muss hochwertig, relevant und lesefreundlich mit vielen Abschnitten sein.
  • Die Einbindung von Keywords zur OnPage-Optimierung gehören ebenfalls dazu. In gesunder Menge sollten relevante Keywords in der URL, H1 Überschriften und natürlich im Text auftauchen.
  • Die Verweildauer gibt Google ebenfalls Aufschluss über die Qualität. Gelangt man über eine Google Suche auf eine Seite, kann der Googlebot feststellen wie lange man dort verweilt und zieht so Rückschlüsse über die Qualität. Es gibt natürlich noch eine Vielzahl von anderen Rankingfaktoren.

Google Crawler und Indexierung

Wenn Nutzer einen Suchbegriff eintippen, dann durchsuchen sie faktisch nicht das Web, sondern Googles Web-Index. Der Google Crawler ist ein Programm, das öffentlich zugängliche Seiten analysiert, die dahinter liegenden Informationen an die Google-Server sendet und sie dort abspeichert bzw. indexiert. Diese Bots springen dabei zwischen den Webseiten hin und her mit Hilfe der hinterlegten Linksstruktur. Für Seitenbetreiber ist es daher sehr wichtig von anderen, bereits indexierten Websites verlinkt zu werden, da Google sie so für vertrauenswürdiger hält. 

Die Crawler, auch Spider genannt, überprüfen neue Websites, Änderungen an bestehenden Websites und veraltete Links. Um sich einen Überblick darüber zu verschaffen was gecrawlt wird, gibt es den kostenlosen Dienst Google Search Console. 

Sie hilft die Präsenz der eigenen Webseite in den Google Suchergebnissen zu verwalten, zu optimieren und zeigt wie man von Google gesehen wird. Mit den Tools und Berichten kann man sicherstellen, dass man von Google gefunden und gecrawlt werden kann. Indexierungsprobleme können behoben werden und es kann eine neue Indexierung angefordert werden. Suchanfragedaten, die zeigen wie oft man in den Suchergebnissen erscheint und welche Suchanfragen zur eigenen Webseite führen, werden in der Search Consolen unter anderem bereitgestellt.

Welche Änderungen gab es beim Google Algorithmus?

Google arbeitet regelmäßig an seinen Algorithmen und veröffentlicht häufig Updates. Viele dieser Updates sind wiederkehrend und dienen der Verbesserung der Ergebnisse. 

  • Panda (2011): Dies ist ein Update, das Seiten mit wenig Inhalt, massenhafter Link- und Werbestruktur abstraft und Seiten mit gutem, informativem Content besser rankt. Es richtet sich gegen das sogenannte Black Hat SEO. Der Algorithmus erkennt nun schlechte Texte, Bilder, Metadaten und sich ähnelnde Unterseiten und verteilt ein dementsprechend schlechteres Ranking.

  • Penguin (2012): Mit diesem Update hat Google Richtlinien (Webmaster Guidelines) gegen Spam und Black Hat SEO veröffentlicht, die sämtliche Verstöße auflisten. Der Algorithmus verhindert nun, dass solche Seiten ein vorteilhaftes Ranking erhalten. Mit Penguin 4.0 (2016) konnte Google Webseiten in Echtzeit auf Spam überprüfen, was den Algorithmus wesentlich flexibler gemacht hat. Penguin ist mittlerweile Bestandteil des Google Core-Algorithmus.

  • Hummingbird (2013): Dieses Update ermöglichte die Erkennung von Sinnzusammenhängen bei der Suche und wurde zum festen Bestandteil des Google Core-Algorithmus. Die semantische Suche begann mit diesem Update, während vorher Ergebnisse ausschließlich passend zum Keyword ausgespielt wurden.

  • RankBrain (2015): Seit diesem Update ist es Google durch maschinelles Lernen und künstliche Intelligenz möglich, unbekannte Suchanfragen zu verarbeiten und durch Sinnzusammenhänge bekannten Fragen zuzuordnen. Google speichert diese neuen Anfragen und lernt daraus.

  • BERT (2019): Dank dieses Updates erkennt Google auch bei komplexen Suchanfragen mit Long-Tail Keywords Zusammenhänge und Suchintentionen.

  • Mobile First Index (2021): Ab März 2021 stellt Google nun endgültig auf den Mobile First Index um. Durch den zunehmenden Traffic von mobilen Endgeräten, werden mit diesem Update ausschließlich mobil optimierte Seiten durchsucht. Unabhängig davon, ob die gleichen Informationen auch in der Desktop-Version existieren, gehen nur noch die Informationen ins Ranking ein, die der mobile Crawler angezeigt bekommt.

  • Core Web Vitals (2021): Ab Mai 2021 werden die sogenannten Core Web Vitals offiziell als Rankingfaktor eingestuft und umfassen Faktoren zur Ladegeschwindigkeit. Seiten, die diesen Voraussetzungen entsprechen, werden in den SERPs hervorgehoben.

Ähnliche Einträge