7 fatale SEO-Fehler, die Ihrer Website massiv schaden können

Kategorie: Suchmaschinenoptimierung

SEO-Fehler werden von tausenden Webmastern jeden Tag begangen und können dramatische Folgen für die Reichweite einer Website besitzen. Dabei wäre es so einfach, weitaus bessere Suchmaschinenrankings zu generieren, wenn man typische SEO-Fehler auf dem Zettel hat und vermeidet.

Im Vergleich zu anderen Online Marketing-Disziplinen ist die Suchmaschinenoptimierung der Bereich, der den sprunghaftesten Veränderungen unterliegt. Googles Algorithmus ändert sich konstant, um bessere Ergebnisse für die Benutzer zu liefern – was wiederum zu schnellen Veränderungen der Rankings einer Website führen kann. Sei es durch einen neu hinzu gewonnen Link, eine neue Seite mit Inhalten oder einen neuen Konkurrenten, der in den Markt drängt.

Gerade im SEO-Bereich sollte man daher ständig auf dem Laufenden bleiben. Nicht mehr aktuelle SEO-Praktiken, Maßnahmen, die gegen die Google Richtlinien verstoßen oder Black-Hat-Techniken können schnell zu manuellen oder algorithmischen Abstrafungen führen, die dramatische Konsequenzen für die Online-Präsenz eines Unternehmens bedeuten und signifikante Besucher-Rückgänge zur Folge haben können.

In diesem Artikel bekommen Sie einen Überblick über die 7 häufigsten SEO-Fehler, die Sie bei der Suchmaschinenoptimierung Ihrer Website vermeiden sollten.

SEO-Fehler jetzt beheben! Kontakt

SEO Fehler #1: Unnatürliche Verlinkungen

Link Building ist zu einem Minenfeld geworden. Der Aufbau von unnatürlichen Verlinkungen kann algorithmische oder manuelle Abstrafungen zur Folge haben, die den Verlust einzelner Rankings bis zur kompletten Deindexierung einer Website in Suchmaschinen zur Folge haben können. „Aufbau von unnatürlichen Verlinkungen“ bedeutet, dass über verschiedene Techniken künstliche Links auf eine Website aufgebaut werden, um die Rankings in Suchmaschinen zu steigern.

Dazu gehören der übermäßige Austausch von Verlinkungen, reziproke Verlinkungen, Link Wheels, die Nutzung von überoptimierten Linktexten, Linkkäufe, automatisierter Linkaufbau durch Software und viele weitere. Google hat eine eigene FAQ-Seite ins Leben gerufen, um das Verständnis von unnatürlichen Link-Schemata bei Webmastern zu schärfen.

Links sind allerdings auch weiterhin einer der wichtigsten Rankingfaktoren bei Google. Dies wurde erst kürzlich durch John Mueller, Web Trend Analyst bei Google, bestätigt. Googles Matt Cutts nannte Links einst die „Online-Reputation“ des Unternehmens. Es geht um die Qualität der Empfehlungen, die für Suchmaschinen u.a. in Form von Links getroffen werden. Ein Unternehmen sollte genau darauf achten, mit welchen Websites und Unternehmen es, in Form von Verlinkungen, in Kontakt gebracht wird. Wie Benjamin Franklin einst sagte: „If you lie down with dogs, you get up with fleas“. Es lohnt sich also, genau darüber nachzudenken, welche Methoden man beim Aufbau von externen Verlinkungen für die eigene Website anwendet.

Google hat in den vergangenen Jahren diverse Algorithmus-Updates herausgebracht, die dafür sorgen sollen, dass unnatürlicher Linkaufbau als Spam bewertet werden kann und zu deutlichen Verschlechterungen der Rankings von Websites führt, die gegen diese Richtlinie verstoßen. Dazu gehört vor allem das Penguin Update, welches auf verschiedenste Metriken im Bereich der OffPage-Optimierung achtet und den Aufbau von unnatürlichen Verlinkungen einschränken soll.

Es gibt allerdings immer noch Unternehmen, die den Vorteil von externen Verlinkungen auf ihre Rankings sofort wollen und unter dieser Prämisse auf Methoden zurückgreifen, die gegen die Google-Richtlinien verstoßen.

Folgende typische Fehler, die im Bereich des Linkbuildings den größten Schaden verursachen, können ein Trigger für das Penguin Update sein:

  • Eine Überoptimierung der Linktexte: Das Linkprofil der Website weist einen überproportional hohen Anteil an Links mit exakten Linktexten auf. Es wird also zum Beispiel immer mit dem Begriff „Glätteisen“ auf eine Unterseite eines Online-Shops verlinkt, die zum Begriff „Glätteisen“ bei Google ranken soll.
  • Quantität der Qualität der Verlinkungen bevorzugen: Eine hohe Anzahl von Backlinks, die eine niedrige Qualität besitzen, können einer Website mehr Schaden zufügen als man denkt. Sie besitzen in der Regel keinerlei Wert, da sie weder einen Mehrwert für den User bieten noch die Rankings signifikant verbessern. Sie führen lediglich zu Google Penalties, die die organische Sichtbarkeit einer Domain dramatisch verschlechtern können
  • Die Deeplink-Ratio: Backlinks sollten nicht nur auf die Homepage gesetzt werden. Die Deeplink-Ratio (Verhältnis zwischen Links auf die Homepage und Links auf tiefergehende Seiten) sollte sich an das branchenübliche Verhältnis angleichen um natürlich zu wirken. Links auf tieferliegende Seiten können deren Ranking deutlich verbessern. Suchmaschinen betrachten das Linkprofil als Ganzes: Links auf interne Seiten können auch zu einer Verbesserung des Rankings der Homepage führen, indem z.B. Metriken wie die Domain Popularität oder die Domain Authority erhöht werden.

SEO Fehler #2: Keyword Stuffing

Keywords sind nicht komplett „tot“. Man kann Keywords immer noch sehr gut dazu nutzen, um Content-Ideen zu entwickeln und Seiten zu gesuchten Themen zu erstellen. Der User sucht nach Themen und Fragestellungen und vermittelt dies der Suchmaschine, indem er Keywords eingibt. Die Suchmaschine ist aber inzwischen in der Lage zu verstehen, welche Suchintention ein Benutzer hat, der ein bestimmtes Keyword eingibt. Was man also vergessen kann, ist, dass die Keyword-Frequenz eine gewisse Relevanz besitzt.

Mit Keyword Stuffing ist gemeint, dass ein bestimmtes Keyword immer und immer wieder im Inhalt genutzt wird – mit der Absicht, durch diese Maßnahme das Ranking der Seite zu diesem Keyword zu verbessern. Ein so aufgebauter Text würde zum Thema „Chili con Carne“ beispielsweise wie folgt aussehen:

„Chili con Carne ist eines meiner Lieblingsgerichte! Ich zeige dir heute mein Chili con Carne Rezept, um das beste Chili con Carne der Welt herzustellen. Mit diesem Chili con Carne Rezept kannst du Chili con Carne für 4 Personen herstellen.“

Der gesamte Blogartikel geht kontinuierlich so weiter und nutzt immer wieder den Begriff „Chili con Carne“. Die Sprache ist aber so unnatürlich, dass den Text kein normaler Mensch lesen würde. Gleichzeitig optimiert man mit solchen Inhalten auch nicht für Suchmaschinen.

“Filling pages with keywords or numbers results in a negative user experience, and can harm your site’s ranking.”
Google

Die Anzahl der Keywords ist nur ein kleiner Faktor im Google Algorithmus. Niemand weiß genau wie hoch der Anteil ist, aber es gibt definitiv wichtigere Faktoren wie User Experience, Domain Authority oder hochwertige Verlinkungen, die eine größere Rolle spielen.

Google will den Benutzer zufriedenstellen und ihm eine gute Erfahrung bei der Nutzung der Suchmaschine, den gelieferten Ergebnissen und den besuchten Websites liefern. Wenn alle Artikel, die zu einem Suchbegriff angeboten werden, mit Keywords „vollgestopft“ sind, würde niemand mehr Google als Suchmaschine nutzen, da die Benutzererfahrung beim Lesen dieser Texte nicht gut ist. Google wird solche Ergebnisse daher nicht für den User anbieten, möglicherweise sogar abstrafen.

Ein weiterer wichtiger Faktor kommt noch hinzu: Niemand würde einen solchen Inhalt verlinken – zumindest niemand mit einer hohen Autorität. Und weil Links so viel wichtiger sind als die Keyword-Frequenz, wäre es fatal solche Texte anzubieten.

Empfehlung:
Man sollte beim Schreiben von Texten für das Web nicht an die Keyword-Platzierung denken. Vielmehr sollten die Texte so geschrieben werden, dass sie dem Benutzer einen wirklichen Mehrwert bieten, ihm wichtige Fragestellungen zu einem Thema beantworten und auch allgemein absolut hochwertig sind. Dazu gehört auch eine korrekte Interpunktion, keine Rechtschreib- und Grammatikfehler, eine Strukturierung der Texte, z.B. über Listen oder Tabellen (wo sinnvoll), und eine Ergänzung der Inhalte durch Bild- und Videomaterial.
Es ergibt natürlich auch weiterhin Sinn, Keywords an wichtigen Stellen (z.B. in den Überschriften) unterzubringen. Dies sollte aber bereits beim Schreiben der Texte automatisch erfolgen. Wenn ich den wichtigen Suchbegriff nicht im Inhalt selbst sowie vereinzelt in einigen Überschriften unterbringen kann, dann habe ich möglicherweise das Thema verfehlt.
Im Idealfall ist der Inhalt dann so gut, dass er natürliche Links und Social Signals erhält und dadurch wiederum bessere Rankings in Suchmaschinen generiert. Die Chance, durch solche Inhalte eine Autorität aufzubauen, ist deutlich, deutlich höher.

SEO Fehler #3: Thin und Duplicate Content

Keyword-Stuffing ist nicht die einzige Maßnahme mit der man sich bei Google & Co. in Bedrängnis bringen kann. Qualitativ hochwertiger Content ist heute gefragter denn je und wird bereits seit Jahren positiv gefördert. Wer den User bei seiner Suche nicht zufriedenstellt, der erhält auch keine guten Rankings.

Thin Content

Wenn eine Website kontinuierlich „schlechten“ oder Thin Content produziert, dann kann dies nachhaltigen Schaden an der Reputation der Website verursachen. Nicht alleine in den Suchmaschinen, sondern auch bei den Benutzern, die diese Inhalte lesen. Mit schlechtem Content sind zum Beispiel Inhalte gemeint, die ungemein kurz, ungenau beschreibend, nicht hilfreich, zu generell oder schlecht recherchiert sind. Mit dem Ausdruck „Thin Content“ referenziert der Search Marketer in der Regel auf Inhalte, die dem Benutzer keinerlei Mehrwert bieten. Diese können heutzutage deutlich schneller erkannt werden als noch vor einigen Jahren. Google definiert „Thin Content“ als Inhalt, der dem Benutzer wenig oder keinen Mehrwert bietet. Dazu gehören:

  • Automatisch erstellter Inhalt
  • Affiliate Seiten ohne Mehrwert für den User
  • Inhalte von anderen Seiten, zum Beispiel gescrapte Inhalte oder Gastbeiträge mit niedriger Qualität
  • Doorway Pages

Jeglicher Versuch „Thin Content“ auf einer Website hinzuzufügen, kann zu einer Abstrafung führen, selbst wenn dies nur eine einzige Seite betrifft, kann Google eine manuelle Abstrafung dieser Seite über den Bereich „Manuelle Spam-Maßnahmen“ in der Google Search Console verhängen.

Man sollte sich daher darauf fokussieren, nur Inhalte mit tatsächlichem Mehrwert zur Verfügung zu stellen. Darauf sollte man sowohl bei der Produktion von internen Inhalten achten, als auch bei der Erstellung von Inhalten auf externen Ressourcen, die auf die eigene Website verlinken.

“The days of SEO being a game outsmarting algorithms are over. Today content strategy and valuable, sustainable strategies are essential, not just tricks and links.”
– Adam Audette (Chief Knowledge Officer, RKG)

Google versucht, nur die Inhalte zur Verfügung zu stellen, die eine hohe Qualität besitzen, gut recherchiert sind, keine Fehler aufweisen und dem User wirklich bei seiner Suche weiterhelfen.

Duplicate Content

Die meisten Website-Inhaber sind mit der Tatsache vertraut, dass Duplicate Content (doppelter Inhalt) nicht nur zu einer Verschlechterung der Rankings führen kann, sondern auch zu einer Abstrafung. Doch auch heute sind sich viele nicht im Klaren darüber, was doppelte Inhalte eigentlich wirklich sind und wie man DC-Probleme umgehen bzw. lösen kann.

Different URLs, same content is badGoogles Richtlinien zum Thema Duplicate Content geben bereits einen Überblick über Best Practices zur Behandlung von Seiten mit ähnlichen oder identischen Inhalten. Dennoch ist der fehlerhafte Umgang mit doppelten Inhalten einer der häufigsten Fehler, den wir als SEO Agentur in der Praxis sehen. Häufig vergessen Webmaster, die notwendigen Tags in den Quellcode einzubinden. Dies gilt vor allem bei Relaunches und Website-Migrationen.

Es ist zunächst wichtig zu wissen, dass vereinzelte Probleme mit Duplicate Content nicht direkt zu schlechteren Rankings oder einer Abstrafung führen. Eine Behebung dieser Probleme ist allerdings häufig sehr einfach möglich. Folgende Aspekte können hinsichtlich DC kritisch werden bzw. benötigen eine genauere Betrachtung:

  • 301-Redirects (z.B. TLD auf www.)
  • Umgang mit Top-Level-Domains für länderspezifische Inhalte
  • Content Syndication
  • Standard Wiederholungen und „leere“ Seiten
  • Filterungen
  • URL-Struktur und Kategorisierung

SEO Fehler #4: Fehler beim Website Relaunch

Ein Relaunch oder ein Redesign sind ein anspruchsvolles Unterfangen, bei dem wichtige SEO Anforderungen auf keinen Fall unberücksichtigt bleiben sollten. Es müssen die Sitemaps und interne Links geupdatet, 301-Redirects der alten URLs auf die neuen URLs eingerichtet oder Meta-Daten aktualisiert werden. Die Liste der notwendigen Maßnahmen ist lang und würde einen eigenen Blog-Beitrag füllen. MOZ hat hier bereits einen sehr guten Guide geschrieben, was für eine erfolgreiche Website Migration aus SEO Sicht zu beachten ist.

Alles in allem ist wichtig: Werden die notwendigen Schritte und Maßnahmen nicht beachtet oder nicht korrekt durchgeführt, droht ein massiver Verlust der organischen Sichtbarkeit und des organischen Traffics.

Die 10 häufigsten Fehler beim Website-Relaunch, die häufig zu beobachten sind:

  1. Fehlende Weiterleitungen trotz Änderungen an der URL Struktur
  2. Interne Links werden nicht aktualisiert
  3. Die robots.txt blockiert den Crawler
  4. Der Robots-Meta-Tag enthält den Wert „noindex“
  5. Die Bilder wurden nicht mit umgezogen oder liegen noch unter einer anderen URL-Struktur, die nach dem Relaunch nicht mehr abrufbar ist
  6. Der Analytics Code wurde auf der neuen Website nicht verbaut
  7. Es existieren noch unnötige Ressourcen (z.B. JS und CSS) im Quellcode, die nur in der Testversion benötigt wurden
  8. Die ehemals gute OnPage-Optimierung wurde nicht mit auf die neue Website übertragen
  9. Externe Links zeigen noch auf die alte URL-Struktur
  10. Es wurde nicht ausreichend getestet und nach dem Relaunch gemonitored. Im schlimmsten Fall bemerkt man die Fehler erst nach einem kompletten Verlust der Rankings.

Ist die Website Migration bereits schiefgelaufen? Die genannten Fehler können mittel- und langfristige Konsequenzen für den organischen Traffic der Website mit sich bringen. Insbesondere, wenn man nach dem Relaunch nicht gewillt ist, diese Fehler zu beheben und den SEO Best Practices zu folgen. Sobald man alle Probleme behoben hat, ist es aber durchaus möglich auf das ehemalige Niveau zurückzukommen, auch wenn der Traffic bereits seit einigen Wochen eingebrochen ist.

SEO Fehler #5: Keine Optimierung für die lokale Suche

Ein weiterer SEO-Fehler, den wir häufiger sehen, ist eine fehlende oder falsche Optimierung für die lokale Suche. Gerade für Unternehmen, die einen lokalen oder regionalen Fokus besitzen, ist dies von höchster Relevanz.

Nach Search Engine Watch zielen über 50% der mobilen Suchanfragen auf das Finden von lokalen Ergebnissen ab und über 60% dieser Suchen führen zu einer Transaktion. Gute Rankings in der lokalen Suche beeinflussen direkt die Anzahl der Besucher im Ladengeschäft, da 50% der Konsumenten, die eine lokale Suchanfrage über ihr Smartphone durchgeführt haben, innerhalb eines Tages in einem Geschäft vorbeischauen. Im Bereich von Desktop und Tablet betrifft dies immerhin noch 34% der Konsumenten. Wenn man also nicht für lokale Suchanfragen optimiert, verpasst man reihenweise potenzielle Kunden.

Man sollte sich also klarmachen, welche Maßnahmen man bereits für die lokale Suche vornimmt. Für die lokale Suchmaschinenoptimierung bieten sich beispielsweise folgende Punkte an:

1. Spezifische Landing Pages für Standorte innerhalb der eigenen Website

Besitzt man mit dem eigenen Unternehmen mehrere Standorte, dann sollte jeder dieser Standorte eine eigenständige Seite besitzen. Jede Seite ist dabei eine Möglichkeit, weiteren, lokal relevanten Content auf der Seite zu platzieren, die Benutzer und Kunden gezielter anzusprechen und entsprechend relevantere Links zu generieren. Gleichzeitig honoriert Google dies in der Regel durch prominentere Platzierungen in den Suchergebnissen.

Beispiel: Ein Zusammenschluss von Steuerberatern mit 3 Standorten in Osnabrück, Lingen und Bad Essen

Man würde an dieser Stelle nicht nur eine allgemeine Seite (beispielsweise die Startseite), die auf das Thema Steuerberatung abzielt, für den Benutzer anbieten. Stattdessen würde man gezielt für jeden Standort eine Seite erstellen, die jeweils für „Steuerberater Osnabrück“, „Steuerberater Lingen“ und „Steuerberater Bad Essen“ – also die lokalen Suchanfragen – ranken sollen.
Auf diesen Seiten würde man neben der allgemeinen Vorstellung des Leistungsportfolios (möglicherweise unterscheidet sich dieses sogar pro Standort), zum Beispiel auch das Team des jeweiligen Standortes präsentieren, einen Hauptansprechpartner, individuelle Öffnungszeiten und weitere individuelle Informationen nennen.

Durch diese spezifischere Adressierung lassen sich in der Regel die Ergebnisse für lokale Suchanfragen deutlich verbessern.

2. Listings in Suchmaschinen, u.a. Google My Business

Google, Yahoo! und Bing bieten Unternehmen die Möglichkeit in lokalen Listings, unter anderem Google Maps und innerhalb der Universal Search vertreten zu sein. Diese Listings bieten die Möglichkeit, als Unternehmen noch visibler zu werden.

Bezogen auf unser Beispiel „Steuerberater“ würde man hier nicht für das Unternehmen als solches eine Eintragung vornehmen, sondern für jeden Standort und damit erneut für die spezifischen Suchanfragen bessere Rankings generieren.

Folgende Platzierungen innerhalb von Google sind damit möglich:

a) Universal Search Integration

Google Maps in der SERP

b) Google Maps Integration

Lokale Unternehmen in Google Maps

3. Lokale Auffindbarkeit durch Verzeichniseinträge erhöhen

Daten Aggregatoren von lokalen Listungen und Branchenbüchern beeinflussen die lokalen Suchergebnisse. Suchmaschinen schauen auf die von Branchenbüchern zur Verfügung gestellten Informationen und nutzen diese für das eigene Listing (Google My Business).

Branchenbuch CylexFür die lokale Optimierung ist es wichtig, dass diese Eintragungen über alle Verzeichnisse und Branchenbücher hinweg konsistent sind. Das bedeutet, dass sämtliche Unternehmensdaten komplett identisch sein sollten. Hier macht es beispielsweise bereits einen Unterschied, ob die Telefonnummer mit +49 oder ohne geschrieben ist, Leerzeichen zwischen den einzelnen Stellen existieren oder „Straße“ einmal ausgeschrieben und einmal in der Version „Str.“ geschrieben wird.

Google gleicht die Unternehmensdaten gegeneinander ab und überprüft diese auf mögliche Fehler. Wenn in vielen Branchenbüchern z.B. die Adresse nicht mit der Eintragung eines Standorts im Google My Business-Eintrag übereinstimmt, dann besteht die Möglichkeit, dass Google den Eintrag korrigiert oder ein Standort eines Unternehmens bei Google existiert, der bereits vor Jahren an eine andere Adresse gewechselt ist.

Tipp: Diese Auflistung bezieht sich auf typische SEO-Fehler. In Kombination mit der lokalen und regionalen Austeuerungsmöglichkeit von Google AdWords lassen sich hier noch bessere Ergebnisse erzielen. Sprechen Sie unsere Kollegen aus dem SMB-Team hierzu gerne an.

SEO-Fehler jetzt beheben! Kontakt

SEO Fehler #6: Hohe Ladezeiten

Die Seitenladegeschwindigkeit ist ein wesentlicher Faktor dafür, wie schnell Benutzer eine Webseite angezeigt bekommen, und für die Optimierung einer Website von hoher Relevanz. Obwohl im Web inzwischen sehr viele Artikel existieren, die aufzeigen, wie wichtig die Ladezeit einer Website für die User Experience ist, zeigen Studien, dass immer noch erstaunlich viele Seiten hinsichtlich dieses Aspekts nicht gut performen. Eine Studie von Portent, für die 16 Millionen Seitenaufrufe von 16 E-Commerce-Websites analysiert wurden, zeigt, dass die Ladezeit bei 50% der Seiten länger als 5 Sekunden war. Im Durchschnitt springen Benutzer bereits bei einer Ladezeit von über 3 Sekunden ab, weshalb hohe Ladezeiten nicht nur für E-Commerce-Websites einen negativen Effekt besitzen, sondern für Websites im Allgemeinen.

“Speeding up your website is a great thing to do in general. Visitors to your site will be happier (and might convert more or use your site more), and a faster web will be better for all.”
– Matt Cutts (Head of Webspam a.D., Google)

Neben dem Effekt der Ladezeiten auf die User Experience und die Conversion Rates besitzen sie auch einen Einfluss auf die Suchmaschinenrankings. Google hat 2010 die Ladezeit als neues Rankingsignal bestätigt und referenziert darauf, dass eine geringe Ladezeit eine bessere User Experience bedingen kann. Hohe Ladezeiten führen dazu, dass Besucher weniger Zeit auf der Site verbringen, weniger Seiten aufrufen und mit einer höheren Wahrscheinlichkeit abspringen. Diese User-Signale bezieht Google wiederum bei der Bewertung einer Website ein, weshalb langsam ladende Seiten in jedem Fall vermieden werden sollten, da sie für die Gesamt-Performance der Website starke negative Folgen haben können.

3 wesentliche Bereiche, die durch hohe Ladezeiten negativ beeinflusst sein können:

  1. Suchmaschinenranking
  2. User Experience
  3. Conversion Rate

Sie sollten also bei der Optimierung Ihrer Website in jedem Fall darauf achten, dass die Seiten möglichst schnell laden. Mit optimierten Ladezeiten werden die Benutzer Ihre Website lieben.

SEO Fehler #7: Fehlendes Tracking und Monitoring der Website Performance

Eine regelmäßige Analyse der Performance der eigenen Website ist ein kritischer Punkt, unabhängig davon, ob SEO und Online Marketing-Aktivitäten ausgelagert wurden oder ein eigenes Inhouse-Marketing existiert. Es reicht hier nicht aus, sich gelegentlich in Google Analytics einzuloggen und zu schauen, wie viele Benutzer in den letzten Tagen auf die eigene Website gelangt sind. Kontinuierliche Arbeit im Bereich Web Analytics ist unerlässlich um die Maßnahmen und getroffenen Entscheidungen im Online Marketing bewerten zu können.

Im Kontext dieses Blog-Artikels soll es aber um die typischen SEO-Fehler beim Tracking und Monitoring gehen. Neben Google Analytics bietet Google hier mit der Google Search Console ein wichtiges Tool, um Fehler und Probleme regelmäßig zu monitoren. Google nutzt die Search Console unter anderem auch um Abstrafungen der Website an den Webmaster zu berichten. Daher ist ein regelmäßiger Blick in die Search Console unerlässlich.

Chuck Price von Search Engine Watch bringt es in einem Beitrag exzellent auf den Punkt, warum fehlendes Monitoring der Website ein fataler Fehler sein kann:

In my experience, which includes conducting 200 link audits in 2013, most reconsideration requests are turned around in 30 days or less. That said, it’s reasonable to conclude that 95 percent of all websites receiving a penalty don’t even bother to attempt a recovery.”
– Chuck Price (Founder, Measurable SEO)

Wenn nur 5% der Unternehmen versuchen, die drastischen Folgen einer Google Penalty zu entfernen ist das alarmierend. Dies kann neben dem fehlenden Know-how zur Entfernung der Abstrafung auch einfach auf fehlendes Monitoring zurückzuführen sein. Den Webmastern ist nicht bewusst, dass sie eine Abstrafung durch Google erhalten haben.

Deswegen sind regelmäßige Überprüfungen der Google Search Console sehr wichtig. Hier werden nicht nur Benachrichtigungen durch Google an den Webmaster herausgegeben, sondern es lässt sich auch das Crawling und Indexierungsverhalten beobachten. Hier würde beispielsweise auch auffallen, wenn der technische Dienstleister fälschlicherweise ein „noindex“ im Robots-Meta-Tag hinzugefügt hat oder den GoogleBot vom Crawling über die robots.txt ausgeschlossen hat.

Ein regelmäßiges Monitoring und Tracking der Website-Performance ist also sowohl im Bereich Web Analytics als auch für den SEO-Bereich essentiell, um möglichen Problemen proaktiv entgegen wirken zu können. Ansonsten droht im schlimmsten Fall ein Komplettverlust des organischen Traffics.

Tipp: Für tiefergehende Monitorings im Bereich der technischen OnPage-Optimierung oder im Bereich der OffPage-Optimierung (Link Alerts) existieren inzwischen einige Tool-Anbieter (beispielsweise URL-Monitor oder Link Research Tools) am Markt, die dieses Monitoring übernehmen und bei Auffälligkeiten Benachrichtigungen an den Webmaster senden.

Fazit: SEO Fehler sind vermeidbar

SEO Fehler können dramatische Folgen für die Performance einer Website haben. Das Online-Marketing und die SEO Welt verändern sich regelmäßig, daher ist es notwendig, auf dem Laufenden zu bleiben und regelmäßig an der Website zu arbeiten. Techniken, die vor Monaten noch funktioniert haben, können heute bereits nicht mehr den Qualitätsrichtlinien der Suchmaschinen entsprechen.

Google und Co. wollen eigentlich nur eines: Dem Benutzer die bestmögliche Erfahrung bei der Suche und beim Besuch der Websites bieten. Webmaster, die genau dies adressieren – technisch und inhaltlich – und die typischen SEO-Fehler vermeiden, haben Chancen auf sehr gute Suchmaschinenrankings. Monitoren Sie Ihre Website und optimieren Sie in erster Linie für die Benutzer, denn wenn diese zufrieden sind, wird Google dies honorieren und es entwickelt sich ein bleibender Besucherstrom über organische Suchergebnisse.

Sie haben Fragen oder kennen noch weitere häufige SEO-Fehler, die in dieser Auflistung nicht berücksichtigt wurden? Schreiben Sie uns gerne einen Kommentar.

SEO-Fehler jetzt beheben! Kontakt
Comments
pingbacks / trackbacks