Skip to content
Übersicht
 

10 fatale SEO-Fehler, die Deiner Website schaden können

Autor

Picture of Michael Möller
Michael Möller
Update durch Andreas Stermann 15.07.2022
Erstveröffentlichung, 2016

In diesem Artikel bekommst Du einen Überblick über die 10 häufigsten SEO-Fehler, die Du bei der Suchmaschinenoptimierung Deiner Website vermeiden sollten.

Im Vergleich zu anderen Online Marketing-Disziplinen ist die Suchmaschinenoptimierung ein Bereich, der sprunghaften Veränderungen unterliegt. Googles Algorithmus ändert sich konstant, um bessere Ergebnisse für seine Benutzer:innen zu liefern – was wiederum zu häufigen Veränderungen der Rankings einer Website führen kann. Sei es durch einen neu hinzu gewonnen Link, eine neue Seite mit Inhalten oder einen neuen Konkurrenten, der in den Markt drängt.

Gerade im SEO-Bereich sollte man daher ständig auf dem Laufenden bleiben. Nicht mehr aktuelle SEO-Praktiken, Maßnahmen, die gegen die Google Richtlinien verstoßen oder Black-Hat-Techniken können schnell zu manuellen oder algorithmischen Abstrafungen führen, die dramatische Konsequenzen für die Online-Präsenz eines Unternehmens bedeuten und signifikante Besucher:innen-Rückgänge zur Folge haben können.

SEO-Fehler #1: Unnatürliche externe Verlinkungen

SEO Fehler Nr. 1

Link Building ist zu einem Minenfeld geworden. Der Aufbau von unnatürlichen Verlinkungen kann algorithmische oder manuelle Abstrafungen zur Folge haben, die sich in dem Verlust einzelner Rankings bis zur kompletten Deindexierung einer Website in Suchmaschinen manifestieren. „Aufbau von unnatürlichen Verlinkungen“ bedeutet, dass über verschiedene Techniken künstliche Links auf eine Website aufgebaut werden, um die Rankings in Suchmaschinen zu steigern.

Dazu gehören:

  • der übermäßige Austausch von Verlinkungen
  • reziproke Verlinkungen
  • Link Wheels
  • die Nutzung von überoptimierten Linktexten
  • Linkkäufe
  • automatisierter Linkaufbau durch Software
  • und viele weitere

Google hat eine eigene FAQ-Seite ins Leben gerufen, um das Verständnis von unnatürlichen Link-Schemata bei Webmastern zu schärfen.

Links sind allerdings auch weiterhin einer der wichtigsten Rankingfaktoren bei Google. Dies wurde erst kürzlich durch John Mueller, Web Trend Analyst bei Google, bestätigt. Googles Matt Cutts nannte Links einst die „Online-Reputation“ des Unternehmens. Es geht um die Qualität der Empfehlungen, die für Suchmaschinen u.a. in Form von Links getroffen werden.

Ein Unternehmen sollte genau darauf achten, mit welchen Websites und Unternehmen es, in Form von Verlinkungen, in Kontakt gebracht wird. Wie Benjamin Franklin einst sagte: „If you lie down with dogs, you get up with fleas“. Es lohnt sich also, genau darüber nachzudenken, welche Methoden man beim Aufbau von externen Verlinkungen für die eigene Website anwendet.
Google hat in den vergangenen Jahren diverse Algorithmus-Updates herausgebracht, die dafür sorgen sollen, dass unnatürlicher Linkaufbau als Spam bewertet werden. Diese wiederum kann zu deutlichen Verschlechterungen der Rankings von Websites führen, wenn diese gegen Richtlinien verstoßen. Dazu gehört vor allem das Penguin Update, welches auf verschiedenste Metriken im Bereich der OffPage-Optimierung achtet und den Aufbau von unnatürlichen Verlinkungen einschränken soll.
Es gibt allerdings immer noch Unternehmen, die den Vorteil von externen Verlinkungen auf ihre Rankings sofort wollen und unter dieser Prämisse auf Methoden zurückgreifen, die gegen die Google-Richtlinien verstoßen.

Folgende typische Fehler, die im Bereich des Linkbuildings den größten Schaden verursachen, können ein Trigger für das Penguin Update sein:

  • Eine Überoptimierung der Linktexte: Das Linkprofil der Website weist einen überproportional hohen Anteil an Links mit exakten Linktexten auf. Es wird also zum Beispiel immer mit dem Begriff „Glätteisen“ auf eine Unterseite eines Online-Shops verlinkt, die zum Begriff „Glätteisen“ bei Suchmaschinen ranken soll.
  • Quantität der Qualität der Verlinkungen bevorzugen: Eine hohe Anzahl von Backlinks, die eine niedrige Qualität besitzen, können einer Website mehr Schaden zufügen als man denkt. Sie besitzen in der Regel keinerlei Wert, da sie weder einen Mehrwert für den User bieten noch die Rankings signifikant verbessern. Sie führen lediglich zu Google Penalties, die die organische Sichtbarkeit einer Domain dramatisch verschlechtern können.
  • Deeplink-Ratio: Backlinks sollten nicht nur auf die Homepage gesetzt werden. Die Deeplink-Ratio (Verhältnis zwischen Links auf die Homepage und Links auf tiefergehende Seiten) sollte sich an das branchenübliche Verhältnis angleichen, um natürlich zu wirken. Links auf tieferliegenden Seiten können deren Ranking deutlich verbessern. Suchmaschinen betrachten das Linkprofil als Ganzes: Links auf interne Seiten können auch zu einer Verbesserung des Rankings der Homepage führen, indem z.B. Metriken wie die Domain Popularität oder die Domain Authority erhöht werden.

SEO-Fehler #2: Schlechte interne Verlinkungen

SEO Fehler Nr. 2
Ein weit verbreiteter Fehler im SEO sind schlechte interne Verlinkungen auf den eigenen Webseiten. Interne Links helfen sowohl  Usern als auch Suchmaschinen dabei, sich besser durch Deine Website-Struktur zu arbeiten. Sie helfen bei der Navigation, haben zudem auch enormen Einfluss auf das Suchmaschinenranking. Doch vielen Webseitenbetreiber:innen sind sich der Tragweite der internen Links nicht bewusst.
Einer der wohl gravierendsten Fehler, den Webseitenbetreiber:innen begehen; Sie vergessen ihre Links mit dem Statuscode 200 zu versehen. Durch die Verlinkung auf weiterleitende oder nicht erreichbare Seiten geht wertvoller Linkjuice verloren.

Linkjuice richtig vererben

Generell muss verstanden werden, was der sogenannte Linkjuice ist und wie dieser innerhalb der eigenen Website-Struktur vererbt wird. Linkjuice ist zunächst einmal eine fiktive Maßeinheit. Mit dieser misst man die Power, die ein Backlink an eine andere Seite weitergibt.
Verlinkt eine Seite mit einem dofollow-Link auf eine andere, so gibt diese auch ihre positive Eigenschaften an diese weiter. PageRank und TrustRank werden gewissermaßen an die verlinkte Seite vererbt. Die eine Seite spricht also eine Empfehlung für die andere aus. Je mehr Linkjuice von der einen Seite zur anderen fließt, desto wertvoller und aussagekräftiger ist letztlich auch die Empfehlung. (vgl. blog.searchmetrics.com)
SEO-Fehler - Linkjuice richtig vererben
Quelle: seopt – eigene Darstellung
Der Linkjuice, der durch eine Seite fließt, verteilt sich auf alle Links, die sich auf dieser befinden. Viele Webseitenbetreiber:innen begehen den Fehler, viel zu viele interne Links zu setzen. Dadurch reduziert sich die Link Power jeder einzelnen Verlinkung enorm. Auch fließt nicht in alle Links die selbe Menge an Linksaft. Generell gilt, weiter oben stehende Verlinkungen geben mehr Linkjuice weiter als Links, die weiter unten platziert sind. Außerdem wird, wenn mehrere Verlinkungen auf die selbe Zielseite führen, nur einer dieser internen Links berücksichtigt.

Verlinkungen in Navigationsleisten und Footern

Ebenso wichtig sind in diesem Zusammenhang Links in der Navigationsleiste bzw. im Footer der Website. Links in der Navigationsleiste geben mehr Linkjuice weiter. Deshalb sollte man hier eher sparsam sein und nicht auf unnötig viele Seiten und Unterseiten verlinken. Footer können die Linkanzahl einzelner Seiten enorm in die Höhe treiben. Daher sollte man auch hier versuchen, sich auf die wesentlichen Links zu reduzieren.

Der richtige Anchor Text ist entscheidend

Ein weiterer wichtiger Aspekt bei der internen Verlinkung ist der Anchor Text. Dieser muss zwingend zum Linkziel passen. Anchortexte geben dem User, wie auch der Suchmaschine Auskunft darüber, was sie auf der Zielseite erwartet. Gerade in Blogs oder auch auf Archivseiten wird oftmals auf unpassende Anchortexte wie etwa “Lesen Sie weiter” zurückgegriffen. Besser ist es, das jeweilige Hauptkeyword der Seite als Anchor Text zu wählen. Die Suchmaschine weiß, was sie auf der Seite erwartet und bewertet diese dadurch in seinen Ergebnissen besser.

SEO-Fehler #3: Keyword Stuffing

SEO Fehler Nr. 3

Keywords sind nicht komplett „tot“. Man kann Keywords immer noch sehr gut dazu nutzen, um Content-Ideen zu entwickeln und Seiten zu gesuchten Themen zu erstellen. Der User sucht nach Themen und Fragestellungen und vermittelt diese der Suchmaschine, indem er Keywords eingibt. Die Suchmaschine ist aber inzwischen in der Lage zu verstehen, welche Suchintention ein/e Benutzer:in hat, der/die ein bestimmtes Keyword eingibt. Die Keyword-Frequenz hat also an Relevanz enorm eingebüßt, nichtsdestotrotz ist es ratsam, auch weiterhin der Keyword-Analyse einen Fokus zu geben.

Mit Keyword Stuffing ist gemeint, dass ein bestimmtes Keyword immer und immer wieder im Inhalt genutzt wird – mit der Absicht, durch diese Maßnahme das Ranking der Seite zu diesem Keyword zu verbessern. Ein so aufgebauter Text würde zum Thema „Chili con Carne“ beispielsweise wie folgt aussehen: Beispiel: Chili con Carne ist eines meiner Lieblingsgerichte! Ich zeige dir heute mein Chili con Carne Rezept, um das beste Chili con Carne der Welt herzustellen. Mit diesem Chili con Carne Rezept kannst Du Chili con Carne für 4 Personen herstellen.
Der gesamte Blogartikel geht kontinuierlich so weiter und nutzt immer wieder den Begriff „Chili con Carne“. Die Sprache ist aber so unnatürlich, dass Leser:innen schnell die Lust daran verlieren würden. Gleichzeitig optimiert man mit solchen Inhalten auch nicht für Suchmaschinen. Im Gegenteil.

Filling pages with keywords or numbers results in a negative user experience, and can harm your site's ranking.

Die Anzahl der Keywords ist nur ein kleiner Faktor im Google Algorithmus. Niemand weiß genau wie hoch der Anteil ist, aber es gibt definitiv wichtigere Faktoren wie User Experience, Domain Authority oder hochwertige Verlinkungen, die eine größere Rolle spielen.
Google will die Benutzer:innen zufriedenstellen und ihnen eine gute Erfahrung bei der Nutzung der Suchmaschine, den gelieferten Ergebnissen und den besuchten Websites liefern. Wenn alle Artikel, die zu einem Suchbegriff angeboten werden, mit Keywords „vollgestopft“ sind, würde Niemand mehr Google als Suchmaschine nutzen, da die Benutzererfahrung beim Lesen dieser Texte nicht gut ist. Google wird solche Ergebnisse daher nicht ausspielen, diese möglicherweise sogar abstrafen.
Ein weiterer wichtiger Faktor kommt noch hinzu: Niemand würde einen solchen Inhalt verlinken – zumindest Niemand mit einer hohen Autorität. Und weil Links so viel wichtiger sind als die Keyword-Frequenz, wäre es fatal solche Texte anzubieten.

Empfehlung:
Man sollte beim Schreiben von Texten für das Web nicht an die Keyword-Platzierung denken. Vielmehr sollten die Texte so geschrieben werden, dass sie dem/der Leser:in einen wirklichen Mehrwert bieten und ihm/ihr wichtige Fragestellungen zu einem Thema beantworten. Dazu gehört auch eine korrekte Interpunktion, keine Rechtschreib- und Grammatikfehler, eine Strukturierung der Texte, z.B. über Listen oder Tabellen (wo sinnvoll), und eine Ergänzung der Inhalte durch Bild- und Videomaterial.

Es ergibt natürlich auch weiterhin Sinn, Keywords an wichtigen Stellen (z.B. in den Überschriften) unterzubringen. Dies sollte aber bereits beim Schreiben der Texte automatisch erfolgen. Wenn ich den wichtigen Suchbegriff nicht im Inhalt selbst sowie vereinzelt in einigen Überschriften unterbringen kann, dann habe ich möglicherweise das Thema verfehlt. Eine Keyword-Analyse kann Aufschluss darüber geben, wonach die User häufig suchen. Diese kann eine gute Orientierung bieten, um den Besucher:innen die Inhalte zu bieten, nach denen sie suchen.

Im Idealfall ist der Inhalt dann so gut, dass er natürliche Links und Social Signals erhält und dadurch wiederum bessere Rankings in Suchmaschinen generiert. Die Chance, durch solche Inhalte eine Autorität aufzubauen, ist deutlich höher.

SEO-Fehler #4: Thin and Duplicate Content

SEO Fehler Nr. 4
Keyword-Stuffing ist nicht die einzige Maßnahme mit der man sich bei Google & Co. in Bedrängnis bringen kann. Qualitativ hochwertiger Content ist heute gefragter denn je und wird bereits seit Jahren positiv gefördert. Wer den User bei seiner Suche nicht zufriedenstellt, der erhält auch keine guten Rankings.

Thin Content

Wenn eine Website kontinuierlich „schlechten“ oder Thin Content produziert, dann kann dies nachhaltigen Schaden an der Reputation der Website verursachen. Nicht alleine in den Suchmaschinen, sondern auch bei den Benutzern, die diese Inhalte lesen. Mit schlechtem Content sind zum Beispiel Inhalte gemeint, die ungemein kurz, ungenau beschreibend, nicht hilfreich, zu generell oder schlecht recherchiert sind. Mit dem Ausdruck „Thin Content“ referenziert der Search Marketer in der Regel auf Inhalte, die dem Benutzer keinerlei Mehrwert bieten. Diese können heutzutage deutlich schneller erkannt werden als noch vor einigen Jahren. Google definiert „Thin Content“ als Inhalt, der dem Benutzer wenig oder keinen Mehrwert bietet. Dazu gehören:

  • Automatisch erstellter Inhalt
  • Affiliate Seiten ohne Mehrwert für den User
  • Inhalte von anderen Seiten, zum Beispiel gescrapte Inhalte oder Gastbeiträge mit niedriger Qualität
  • Doorway Pages
  • Jeglicher Versuch „Thin Content“ auf einer Website hinzuzufügen, kann zu einer Abstrafung führen, selbst wenn dies nur eine einzige Seite betrifft, kann Google eine manuelle Abstrafung dieser Seite über den Bereich „Manuelle Spam-Maßnahmen“ in der Google Search Console verhängen.
Man sollte sich daher darauf fokussieren, nur Inhalte mit tatsächlichem Mehrwert zur Verfügung zu stellen. Darauf sollte man sowohl bei der Produktion von internen Inhalten achten, als auch bei der Erstellung von Inhalten auf externen Ressourcen, die auf die eigene Website verlinken.

The days of SEO being a game of outsmarting algorithms are over. Today content strategy and valuable, sustainable strategies are essentials, not just tricks and links.

Google versucht, nur die Inhalte zur Verfügung zu stellen, die eine hohe Qualität besitzen, gut recherchiert sind, keine Fehler aufweisen und dem User wirklich bei seiner Suche weiterhelfen.

Duplicate Content

Die meisten Website-Inhaber sind mit der Tatsache vertraut, dass Duplicate Content (doppelter Inhalt) nicht nur zu einer Verschlechterung der Rankings führen kann, sondern auch zu einer Abstrafung. Doch auch heute sind sich viele nicht im Klaren darüber, was doppelte Inhalte eigentlich wirklich sind und wie man DC-Probleme umgehen bzw. lösen kann.
SEO-Fehler - Duplicate Content
Googles Richtlinien zum Thema Duplicate Content geben bereits einen Überblick über Best Practices zur Behandlung von Seiten mit ähnlichen oder identischen Inhalten. Dennoch ist der fehlerhafte Umgang mit doppelten Inhalten einer der häufigsten Fehler, den wir als SEO Agentur in der Praxis sehen.
Häufig vergessen Webmaster, die notwendigen Tags in den Quellcode einzubinden. Dies gilt vor allem bei Relaunches und Website-Migrationen.

Es ist zunächst wichtig zu wissen, dass vereinzelte Probleme mit Duplicate Content nicht direkt zu schlechteren Rankings oder einer Abstrafung führen. Eine Behebung dieser Probleme ist allerdings häufig sehr einfach möglich. Folgende Aspekte können hinsichtlich DC kritisch werden bzw. benötigen eine genauere Betrachtung:

  • 301-Redirects (z. B. TLD auf www.)
  • Umgang mit Top-Level-Domains für länderspezifische Inhalte
  • Content Syndication
  • Standard Wiederholungen und „leere“ Seiten
  • Filterungen
  • URL-Struktur und Kategorisierung

Digital Arrow

Melde Dich jetzt zu unserem Newsletter „Digital Arrow“ an, mit dem Du die brandheißen digitalen News zuerst erhältst!

SEO-Fehler #5: Fehler beim Website Relaunch

SEO Fehler Nr. 5
Ein Relaunch oder ein Redesign sind ein anspruchsvolles Unterfangen, bei dem wichtige SEO Anforderungen berücksichtigt werden müssen. Es gilt die Sitemaps und interne Links zu updaten, 301-Redirects der alten URLs auf die neuen URLs einzurichten oder Meta-Daten zu aktualisieren. Die Liste der notwendigen Maßnahmen ist lang und würde einen eigenen Blog-Beitrag füllen. MOZ hat hier bereits einen sehr guten Guide geschrieben, was für eine erfolgreiche Website Migration aus SEO Sicht zu beachten ist.
Alles in allem ist wichtig: Werden die notwendigen Schritte und Maßnahmen nicht beachtet oder nicht korrekt durchgeführt, droht ein massiver Verlust der organischen Sichtbarkeit und des organischen Traffics.

Die 10 häufigsten Fehler beim Website-Relaunch, die häufig zu beobachten sind:

  1. Fehlende Weiterleitungen trotz Änderungen an der URL Struktur
  2. Interne Links werden nicht aktualisiert
  3. Die robots.txt blockiert den Crawler
  4. Der Robots-Meta-Tag enthält den Wert „noindex
  5. Die Bilder wurden nicht mit umgezogen oder liegen noch unter einer anderen URL-Struktur, die nach dem Relaunch nicht mehr abrufbar ist
  6. Der Google Analytics Code wurde auf der neuen Website nicht verbaut
  7. Es existieren noch unnötige Ressourcen (z. B. JS und CSS) im Quellcode, die nur in der Testversion benötigt wurden
  8. Die ehemals gute OnPage-Optimierung wurde nicht mit auf die Website übertragen
  9. Externe Links zeigen noch auf die alte URL-Struktur
  10. Es wurde nicht ausreichend getestet und nach dem Relaunch gemonitored. Im schlimmsten Fall bemerkt man die Fehler erst nach einem kompletten Verlust der Rankings.
Ist die Website Migration bereits schiefgelaufen? Die genannten Fehler können mittel- und langfristige Konsequenzen für den organischen Traffic der Website mit sich bringen. Insbesondere, wenn man nach dem Relaunch nicht gewillt ist, diese Fehler zu beheben und den SEO Best Practices zu folgen. Sobald man alle Probleme behoben hat, ist es aber durchaus möglich auf das ehemalige Niveau zurückzukommen, auch wenn der Traffic bereits seit einigen Wochen eingebrochen ist.

SEO-Fehler #6: Keine Optimierung für die lokale Suche

SEO Fehler Nr. 6
Ein weiterer SEO-Fehler, den wir häufiger sehen, ist eine fehlende oder falsche Optimierung für die lokale Suche. Gerade für Unternehmen, die einen lokalen oder regionalen Fokus besitzen, ist dies von höchster Relevanz.
Nach Neumann Marketing zielen 46% der mobilen Suchanfragen auf das Finden von lokalen Ergebnissen ab. Gute Rankings in der lokalen Suche beeinflussen direkt die Anzahl der Besucher:innen im Ladengeschäft, da 76% der Konsument:innen, die eine lokale Suchanfrage über ihr Smartphone durchgeführt haben, innerhalb eines Tages in einem Ladenlokal vorbeischauen. (vgl. Ahrefs) Ganze 28% dieser Suchanfragen führt dann auch zu einem Kauf. (vgl. Think with Google)

Man sollte sich also klarmachen, welche Maßnahmen man bereits für die lokale Suche vornimmt. Für das Local SEO bieten sich beispielsweise folgende Punkte an:

1. Spezifische Landing Pages für Standorte innerhalb der Website

Besitzt man mit dem eigenen Unternehmen mehrere Standorte, dann sollte jeder dieser Standorte eine eigenständige Seite besitzen. Jede Seite ist dabei eine Möglichkeit, weiteren, lokal relevanten Content auf der Seite zu platzieren, die Benutzer:innen und Kunden:innen gezielter anzusprechen und entsprechend relevantere Links zu generieren. Gleichzeitig honoriert Google dies in der Regel durch prominentere Platzierungen in den Suchergebnissen.
Beispiel: Ein Zusammenschluss von Steuerberatern mit 3 Standorten in Osnabrück, Lingen und Bad Essen
Man würde an dieser Stelle nicht nur eine allgemeine Seite (beispielsweise die Startseite), die auf das Thema Steuerberatung abzielt, für die Benutzer:innen anbieten. Stattdessen würde man gezielt für jeden Standort eine Seite erstellen, die jeweils für „Steuerberater Osnabrück“, „Steuerberater Lingen“ und „Steuerberater Bad Essen“ – also die lokalen Suchanfragen – ranken sollen.
Auf diesen Seiten würde man neben der allgemeinen Vorstellung des Leistungsportfolios (möglicherweise unterscheidet sich dieses sogar pro Standort), zum Beispiel auch das Team des jeweiligen Standortes präsentieren, eine/n Hauptansprechpartner:in, individuelle Öffnungszeiten und weitere individuelle Informationen nennen.
Durch diese spezifische Adressierung lassen sich in der Regel die Ergebnisse für lokale Suchanfragen deutlich verbessern.

2. Listings in Suchmaschinen, u.a. Google My Business

Google, Yahoo! und Bing bieten Unternehmen die Möglichkeit in lokalen Listings, unter anderem Google Maps und innerhalb der Universal Search, vertreten zu sein. Diese Listings bieten die Möglichkeit, als Unternehmen noch visibler zu werden.
Bezogen auf unser Beispiel „Steuerberater“ würde man hier nicht für das Unternehmen als solches eine Eintragung vornehmen, sondern für jeden Standort und damit erneut für die spezifischen Suchanfragen bessere Rankings generieren.
Folgende Platzierungen innerhalb von Google sind damit möglich:

a) Universal Search Integration

b) Google Maps Integration

3. Lokale Auffindbarkeit durch Verzeichniseinträge erhöhen

Daten Aggregatoren von lokalen Listen und Branchenbüchern beeinflussen die lokalen Suchergebnisse. Suchmaschinen schauen auf die von Branchenbüchern zur Verfügung gestellten Informationen und nutzen diese für das eigene Listing (Google My Business).
10 fatale SEO Fehler - Lokale Auffindbarkeit
Für die lokale Optimierung ist es wichtig, dass diese Eintragungen über alle Verzeichnisse und Branchenbücher hinweg konsistent sind. Das bedeutet, dass sämtliche Unternehmensdaten komplett identisch sein sollten. Hier macht es beispielsweise bereits einen Unterschied, ob die Telefonnummer mit +49 oder ohne geschrieben ist, Leerzeichen zwischen den einzelnen Stellen existieren oder „Straße“ einmal ausgeschrieben und einmal in der Version „Str.“ geschrieben wird.
Google gleicht die Unternehmensdaten gegeneinander ab und überprüft diese auf mögliche Fehler. Wenn in vielen Branchenbüchern z.B. die Adresse nicht mit der Eintragung eines Standorts im Google My Business-Eintrag übereinstimmt, dann besteht die Möglichkeit, dass Google den Eintrag korrigiert oder ein Standort eines Unternehmens bei Google existiert, der bereits vor Jahren an eine andere Adresse gewechselt ist.

Tipp: Diese Auflistung bezieht sich auf typische SEO-Fehler. In Kombination mit der lokalen und regionalen Steuerungsmöglichkeit von Google AdWords lassen sich hier noch bessere Ergebnisse erzielen. Sprich unsere Kolleg:innen hierzu gerne an.

SEO-Fehler jetzt beheben!

mso digital ist Deine Agentur für lokale und regionale Suchmaschinenoptimierung.

SEO-Fehler #7: Ignorieren der Core Web Vitals

SEO Fehler Nr. 7
Die Core Web Vitals sind seit dem Google Core Update im Sommer 2021 ein Faktor im SEO. Im Kern sind die Core Web Vitals Kennzahlen zur Page Experience einer Webseite. Google misst dabei an Hand drei verschiedener Faktoren, wie gut eine Seite performt und sich im Kontext ver User Experience darstellt. Diese sind:
SEO-Fehler - Core Web Vitals

Largest Contentful Paint – Die Ladegeschwindigkeit

Die Seitenladegeschwindigkeit ist ein wesentlicher Faktor dafür, wie schnell Nutzer:innen eine Webseite angezeigt bekommen, und für die Optimierung einer Website von hoher Relevanz. Obwohl im Web inzwischen sehr viele Artikel existieren, die aufzeigen, wie wichtig die Ladezeit einer Website für die User Experience ist, zeigen Studien, dass immer noch erstaunlich viele Seiten hinsichtlich dieses Aspekts nicht gut performen. Eine Studie von Portent, für die 16 Millionen Seitenaufrufe von 16 E-Commerce-Websites analysiert wurden, zeigt, dass die Ladezeit bei 50% der Seiten länger als 5 Sekunden war. Im Durchschnitt springen Benutzer bereits bei einer Ladezeit von über 3 Sekunden ab, weshalb hohe Ladezeiten nicht nur für E-Commerce-Websites einen negativen Effekt besitzen, sondern für Websites im Allgemeinen.

Speeding up your website is a great thing to do in general. Visitors to your site will be happier (and might convert more or use your site more), and a faster web will be better for all.

Neben dem Effekt der Ladezeiten auf die User Experience und die Conversion Rates besitzen sie auch einen Einfluss auf die Suchmaschinen-Rankings. Google hat 2010 die Ladezeit als neues Ranking-Signal bestätigt und referenziert darauf, dass eine geringe Ladezeit eine bessere User Experience bedingen kann. Hohe Ladezeiten führen dazu, dass Besucher weniger Zeit auf der Site verbringen, weniger Seiten aufrufen und mit einer höheren Wahrscheinlichkeit abspringen. Diese User-Signale bezieht Google wiederum bei der Bewertung einer Website ein, weshalb langsam ladende Seiten in jedem Fall vermieden werden sollten, da sie für die Gesamt-Performance der Website starke negative Folgen haben können.

3 wesentliche Bereiche, die durch hohe Ladezeiten negativ beeinflusst sein können:

  • Suchmaschinenranking
  • User Experience
  • Conversion Rate
Du solltest also bei der Optimierung Ihrer Website in jedem Fall darauf achten, dass die Seiten möglichst schnell laden. Mit optimierten Ladezeiten werden die Benutzer:innen Deine Website lieben.

First Input Delay – Die Interaktivität

Mit Interaktivität ist die Reaktionsgeschwindigkeit der Seite von der ersten Interaktion des Users auf einer Seite bis zu deren Reaktion gemeint. Es wird dabei die konkrete Zeit gemessen, die benötigt wird, ehe die Aktion auf der Seite ausgeführt wird.
Diese ist ein wesentlicher Bestandteil der User Experience. Jeder kennt das Ärgernis von nicht oder nur schleppend funktionierenden Aktionsbuttons auf einer Homepage. Man will einen Artikel in den Warenkorb schieben, doch die Aktion wird zeitverzögert durchgeführt. Ungeduldig klickt man mehrfach auf den entsprechenden Button, um am Ende festzustellen, dass der Artikel nun mehrfach im Warenkorb liegt.
Um solche schlechten Erfahrungen zu vermeiden, sollten Webmaster unbedingt auf die Metrik des First Input Delays achten. Für die Optimierung der Reaktionsgeschwindigkeit gilt es vor Allem die Ausführung des JavaScripts und auf externen Code zu achten. Beide können den Browser lange Zeit blockieren und verhindern dadurch eine zeitnahe Reaktion der Webseite.

Cumulative Layout Shift – Die Stabilität

Grob gesagt geht es beim Cumulative Layout Shift um die visuelle Stabilität der Webseite. Konkret wird hier die Verschiebung einzelner, sogenannter Document Object Model (DOM) gemessen. Ausgeschlossen sind dabei Bewegungen der Elemente, die durch eine konkrete Aktion herbeigeführt wurden. Vielmehr stehen hier die unerwarteten Bewegungen auf einer Website im Fokus. Je höher der CLS-Wert einer Seite, desto schädlicher ist dieser für das Ranking.

Doch was verbirgt sich hinter diesen unerwarteten Bewegungen?

Klassischerweise folgt der Aufbau einer Website dem Schema Titel, Einleitung, Bild und Text bzw. Inhalt. Meist wird dabei das Bild zuletzt geladen, um die Ladegeschwindigkeit möglichst gering zuhalten. Wenn das Bild dann geladen wird, kann es zu Verschiebungen auf der Seite führen, die für den User unerwartet kommen und als äußerst störend empfunden werden.
Die Lösung des Problems liegt dabei auf der Hand: Entweder man sorgt dafür, dass die Ladereihenfolge derartige Verschiebungen ausschließt, oder aber man weist allen nicht synchron geladenen DOM´s eine feste Größe zu. So können unerwartete Verschiebungen ausgeschlossen werden.

SEO-Fehler #8: Hidden Content

SEO Fehler Nr. 8
Mitte der 90er Jahre war es noch relativ einfach die Suchmaschinen zu manipulieren und sich mit simplen Tricks an die Spitze der Suchergebnisse zu manövrieren. Ein Trick der sich lange Zeit großer Beliebtheit erfreute, war der sogenannte Hidden Content. Doch was ist Hidden Content eigentlich und warum ist dieser heute immer noch Thema?
Hidden Content sind Textinhalte oder Links, die zwar im Quelltext einer Seite aufgeführt, für den/die Webseiten-Besucher:innen jedoch nicht sichtbar sind. Genutzt wurde diese Methode vor allem, um Keyword-Stuffing auf der eigenen Seite zu betreiben, ohne dabei die Besucher:innen mit unnötigen Textinhalten zu nerven.

Methoden zum Verstecken von Content

Textblöcke auf der Seite verstecken

Entweder setzte man dazu die Schriftgröße eines Absatzes, der mit relevanten Keywords vollgestopft wurde, einfach auf 0. So blieb dieser für die User ungesehen. Oder aber man passte die Schriftfarbe dem Hintergrund an, sodass der Text, wie ein Chamäleon auf der Seite verschwand. Beide Formen waren zumindest damals sehr erfolgreich.

Doch mittlerweile sollte man zwingend die Finger von dieser Methode lassen, denn Suchmaschinen strafen Keyword Stuffing mittels verstecktem Inhalt vehement ab. Diese Form von Blackhat SEO ist jedoch immer noch verbreitet und der/die ein oder andere Betreiber:in von Webseiten denkt, er/sei könne Google und Co ein Schnippchen schlagen.

Backlinks verbergen

Auch Backlinks lassen sich auf ähnlicher Weise verstecken. Der User hat letztlich keinerlei Kenntnis über die versteckten Elemente, doch für die Suchmaschine sind diese auf der Seite vorhanden. Auch hinter Bildern lassen sich Links oder Textelemente einfach verbergen.

Abstrafung bei Hidden Content

Google kann jedoch heute recht gut unterscheiden, was versteckte Elemente sind und zu welchem Zweck diese so eingerichtet wurden. Hidden Content mit der Intention das Google-Ergebnis zu verbessert gilt daher als Verstoß der Google-Richtlinien für Webmaster.
Wer also darüber nachdenkt, seine Seiten mit dieser Methode pushen zu wollen, sollte sich im Klaren darüber sein, dass man letztlich das genaue Gegenteil damit erreicht. Die Strafen reichen von Penalty einzelner Seiten bis hin zum Ausschluss der gesamten Website aus dem Index. So wäre die Seite zumindest bei Google, nicht mehr auffindbar und man hätte tatsächlich das Gegenteil von dem erreicht, was eigentlich angestrebt wurde – eine gutes Ranking in den  Suchmaschinenergebnissen.

Erlaubter Hidden Content

Es gibt jedoch auch den legalen, ausdrücklich erwünschten Hidden Content. Etwa dann, wenn auf der mobilen Version der der Webseite bestimmte Textelemente gegenüber der Desktop-Version verborgen werden sollen. Das hat dann insbesondere Usability-Gründe. Man möchte die Benutzerfreundlichkeit aufrecht erhalten und nicht eben nicht sein Ranking verbessern. Google kann diese Fälle voneinander unterscheiden. (vgl. ryte.com)
Ein weiteres Szenario in dem es Sinn ergeben kann, Inhalte auf der eigenen Seite zu verstecken, vollzieht sich entlang der Integration von Tracking Pixel. Mit diesen lassen sich die Verhaltensweisen der Nutzer:innen nachvollziehen. Die Google-Crawler erkennt diese Tracking-Pixel als solche und straft in diesem Fall nicht ab.

SEO-Fehler #9: Fehlendes Tracking und Monitoring der Website Performance

SEO Fehler Nr. 9
Eine regelmäßige Analyse der Performance der eigenen Website ist ein kritischer Punkt, unabhängig davon, ob SEO und Online Marketing-Aktivitäten ausgelagert wurden oder ein eigenes Inhouse-Marketing existiert. Es reicht hier nicht aus, sich gelegentlich in Google Analytics einzuloggen und zu schauen, wie viele Benutzer:innen in den letzten Tagen auf die eigene Website gelangt sind. Kontinuierliche Arbeit im Bereich Web Analytics ist unerlässlich um die Maßnahmen und getroffenen Entscheidungen im Online Marketing bewerten zu können.
Im Kontext dieses Blog-Artikels soll es aber um die typischen SEO-Fehler beim Tracking und Monitoring gehen. Neben Google Analytics bietet Google hier mit der Google Search Console ein wichtiges Tool, um Fehler und Probleme regelmäßig zu monitoren. Google nutzt die Search Console unter anderem auch um Abstrafungen der Website an den Webmaster zu berichten. Daher ist ein regelmäßiger Blick in die Search Console unerlässlich.
Chuck Price von Search Engine Watch bringt es in einem Beitrag exzellent auf den Punkt, warum fehlendes Monitoring der Website ein fataler Fehler sein kann:

In my experience, which includes conducting 200 link audits in 2013, most reconsideration requests are turned around in 30 days or less. That said, it's reasonable to conclude that 95 percent of all websites receiving a penalty don't even bother to attempt a recovery.

Wenn nur 5% der Unternehmen versuchen, die drastischen Folgen einer Google Penalty zu entfernen ist das alarmierend. Dies kann neben dem fehlenden Know-how zur Entfernung der Abstrafung auch einfach auf fehlendes Monitoring zurückzuführen sein. Den Webmastern ist nicht bewusst, dass sie eine Abstrafung durch Google erhalten haben.
Deswegen sind regelmäßige Überprüfungen der Google Search Console sehr wichtig. Hier werden nicht nur Benachrichtigungen durch Google an den Webmaster herausgegeben, sondern es lässt sich auch das Crawling und Indexierungsverhalten beobachten. Hier würde beispielsweise auch auffallen, wenn der technische Dienstleister fälschlicherweise ein „noindex“ im Robots-Meta-Tag hinzugefügt hat oder den GoogleBot vom Crawling über die robots.txt ausgeschlossen hat.
Ein regelmäßiges Monitoring und Tracking der Website-Performance ist also sowohl im Bereich Web Analytics als auch für den SEO-Bereich essentiell, um möglichen Problemen proaktiv entgegenwirken zu können. Ansonsten droht im schlimmsten Fall ein Komplettverlust des organischen Traffics.

Tipp: Für tiefergehende Monitorings im Bereich der technischen OnPage-Optimierung oder im Bereich der OffPage-Optimierung (Link Alerts) existieren inzwischen einige Tool-Anbieter (beispielsweise URL-Monitor oder ahrefs am Markt, die dieses Monitoring übernehmen und bei Auffälligkeiten Benachrichtigungen an den Webmaster senden.

SEO-Fehler #10: Schlechtes responsive Design

SEO Fehler Nr. 10
Für Google ist die mobile Version mittlerweile entscheidender als die Desktop-Version einer Website. Dieser Mobile-First-Ansatz rührt aus dem Nutzerverhalten der letzten Jahre. Die Anzahl von Suchanfragen auf mobilen Endgeräten wächst seit Jahren kontinuierlich. Daher hat Google diese auch vermehrt in den Fokus genommen. Leider haben viele Unternehmen ihre Webseiten bislang nur unzureichend oder gar nicht für die mobile Nutzung optimiert.

Was ist responsives Design?

Responsives Webdesign meint in diesem Kontext nichts anderes, als eine grafische und technische Herangehensweise zur Erstellung von Webseiten, die sich auf das jeweilige Endgerät einer/s Nutzer:in anpassen lässt. Dabei ist der grafische Aufbau einer Website so gestaltet, dass diese sich in unterschiedlicher Form, abhängig ob ein/e Nutzer:in diese von einem Smartphone, einem Tablet oder dem PC abruft, darstellen lässt.
Insbesondere in der Nutzung zwischen Touchscreen und Mauszeiger ergeben sich zahlreiche Unterschiede. So müssen für mobile Endgeräte Wischfunktionen eingesetzt werden, während bei der Desktop-Version einer Website Elemente zum Überfahren mit dem Mauszeiger integriert werden können.
Auch in Sachen Größe der einzelnen Elemente ergeben sich Unterschiede. So sind Menüleisten auf einer Desktop-Website meist deutlich umfangreicher. In mobilen Versionen müssen diese verkleinert und übersichtlicher gestaltet werden. Häufig kommen hier einklappbare Elemente zum Einsatz, die dann bei Bedarf ausgeklappt werden und so die Navigation auf der Seite ermöglichen. Das Hamburger-Menü ist hier ein gängiges Beispiel für ein solches einklappbares Element.

Technische Umsetzung von responsivem Design

Beim responsiven Design wird, im Gegensatz zum adaptiven Design, also nur eine einzige Website erstellt, die sich dann automatisch an das entsprechende Ausgabegerät anpasst. Dazu bedarf es bestimmter technischer Elemente, die in die Seiten integriert werden müssen.
Greifen Nutzer:innen auf die Seite zu, so bestimmt der CSS-Code das jeweilige Layout der Seite. Dieses wird entsprechend der Bildschirmgröße gerendert und ausgegeben. Die in dem Stylesheet festgelegten Regeln werden vom Browser nur dann in Betracht gezogen, wenn die zuvor definierten Bedingungen erfüllt sind.

Schlechtes responsives Design

Ein SEO-Fehler, der immer wieder zu beobachten ist, findet sich im responsivem Design, oder besser gesagt in dessen Abwesenheit. Viele Webseiten-Betreiber:innen haben Ihre Seiten überhaupt nicht an mobile Endgeräte angepasst. Dabei macht die mobile Nutzung von Websites in Deutschland mittlerweile mehr als 80% aller Interaktionen im Internet aus. (vgl. statista)

Doch auch bei der responsiven Gestaltung von Websites passieren eine ganze Reihe verschiedener Fehler. Wir haben für die einige der häufigsten Missverständnisse aufgelistet.

  1. Footer nicht angepasst
    Auf dem Desktop sieht ein gut gefüllter Footer extrem gut und einladend aus. Er dient dem User als Navigation und auch als Touchpoint für weitere Interaktionen. In der mobilen Version hingegen ist ein ausladender Footer hingegen eher störend.
  2. Inhalte nicht ausblenden
    Es gibt die Möglichkeit Inhalte auf mobilen Geräten auszublenden und nur die Kernbotschaft darzustellen. Das kann beispielsweise bei sehr langen Texten Sinn ergeben. Während Nutzer:innen auf der Desktop-Version einen Artikel deutlich übersichtlicher überblicken können, muss bei der mobilen Version lange runtergescrollt werden, ehe man die Information findet, die man sucht. Durch das ausblenden unnötiger Informationen bietet man dem User die Möglichkeit schneller seine Suchintention zu befriedigen.
  3. Schriftgrößen nicht anpassen
    In manchen Fällen kann es Sinn ergeben die Schriftgröße der Texte auf das jeweilige Endgerät anzupassen. Stellt man beispielsweise fest, dass die Lesbarkeit eines Textblocks bei einer Schriftgröße von 12px auf dem Smartphone leidet, empfiehlt es sich, hier eine andere Schriftgröße zu wählen.
  4. Keine responsiven Bilder
    Bilder sollten in jedem Fall responsiv sein. Oftmals bringt die Verkleinerung von Bilder jedoch mit sich, dass Details verloren gehen. Hier empfiehlt es sich, das Bild zur Vergrößerung anklickbar zu machen. In diesem Fall kann das Bild über ein modulares Dialogfeld separat von den Inhalten betrachtet werden.
  5. Webseiten für mobile Endgeräte erstellen
    Dieser Punkt klingt erst einmal ein wenig widersprüchlich. Doch bei genauerer Betrachtung wird deutlich, was damit gemeint ist. Eine Website wird klassischerweise für den Desktop erstellt und dann auf mobile Endgeräte runterskaliert. Würde man den umgekehrten Weg wählen, lässt sich das Design nicht ohne weiteres hochskalieren.

Fazit: SEO-Fehler sind vermeidbar

SEO-Fehler können dramatische Folgen für die Performance Deiner Website haben. Das Online-Marketing und die SEO Welt verändern sich ständig, daher ist es notwendig, auf dem Laufenden zu bleiben und regelmäßig an der Website zu arbeiten. Techniken, die vor Monaten noch funktioniert haben, können heute bereits nicht mehr den Qualitätsrichtlinien der Suchmaschinen entsprechen.
Google und Co. wollen eigentlich nur eines: Den Benutzer:innen die bestmögliche Erfahrung bei der Suche und beim Besuch der Websites bieten. Webmaster, die genau dies adressieren – technisch und inhaltlich – und die typischen SEO-Fehler vermeiden, haben Chancen auf sehr gute Suchmaschinenrankings. Monitore Deine Website und optimiere sie in erster Linie für die Benutzer:innen, denn wenn diese zufrieden sind, wird Google es ebenfalls sein.  Zudem entwickelt sich ein bleibender Besucherstrom über organische Suchergebnisse.
Du hast Fragen oder kennst noch weitere häufige SEO-Fehler, die in dieser Auflistung nicht berücksichtigt wurden? Schreibe uns gerne einen Kommentar.

SEO Agentur mso digital

Hast Du weitere Fragen oder benötigst Du Unterstützung bei der SEO-Optimierung Deiner Website? Dann melde Dich gerne bei uns!

Empfohlene Beiträge

4 Kommentare

  1. Hallo,

    guter Beitrag, gefällt mir sehr. Eine Frage hätte ich aber noch: Müsste aus eurer Sicht nicht „fehlendes responsive Design“ mithinein? Da ja immer mehr User über ihr Mobilgerät suchen, finde ich das essentiell.

    • Hallo BIZ,

      vielen Dank für deinen Hinweis! Da würden wir dir absolut zustimmen. Dieser Beitrag ist tatsächlich schon etwas älter. Wir werden ihn zeitnah bearbeiten und deinen Input berücksichtigen.

  2. Vielen Dank für diesen tollen Blog Artikel! Finde ich sehr informativ 🙂 Beste Grüße aus Fürth, Nick Freund

    • Hallo Nick,
      freut uns zu lesen, dass dir unser Artikel gut gefallen hat.
      Beste Grüße
      Anastasia


Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert