SEO Weekly: Mögliches Fred-Update zu Weihnachten, Erweiterung des Knowledge Graphen für News-Seiten und JavaScript Links

Kategorie: SEO Weekly

Diese Woche berichten wir in unserem SEO Weekly über ein mögliches Fred-Update zu Weihnachten mit reichlich Aufruhr in der SEO-Szene, eine Erweiterung des Knowledge Graphen um Informationen zu News-Seiten und die Bedeutung von JavaScript Links.

Auffällige Veränderungen in den SERPs – ein Anzeichen für Fred 2.0?

Spätestens nach dem Fred Update im März 2017 sollte allen SEOs klar geworden sein: Thin Content inklusive einer übermäßigen Monetarisierung in Form von Werbebannern, vorrangig above the fold, beeinflussen die User Experience negativ und geben dem Google Algorithmus allen Grund zu einer Abstrafung.

Dass allerdings nicht jedes Google-Update, welches auffällige Veränderungen in den SERPs hervorruft, glasklare Hinweise auf zukünftige Optimierungsmaßnahmen gibt, zeigt sich auch dieses Mal. So berichtet Johannes Beus, Gründer von Sistrix, von einem möglichen Update, ohne Korrelationen in den Veränderungen erkennen zu können.

Sichtbarkeitseinbruch von billiger.de

Bsp: Sichtbarkeitsindex von billiger.de – Einbruch am Tag des Updates.

Auffällig ist, dass aus diesem Update sowohl Verlierer als auch Gewinner in unterschiedlichsten Branchen hervorgehen – teils sogar ähnliche Seiten mit unterschiedlichen Sichtbarkeitsentwicklungen.

Gewinner des neuen Google Updates

Gewinner nach SISTRIX. Deutlich an Sichtbarkeit gewonnen haben pons.com und amazon.de.


Verlierer des Google Updates

Verlierer nach SISTRIX. Spannend: leo.org hat im Gegensatz zur ähnlichen Konkurrenzseite pons.com an Sichtbarkeit verloren

Nach Beus’ Meinung könne es sich somit um kein Penalty-Update wie Penguin oder Panda handeln, welches gegen Domains vorgeht, die gegen die Webmaster Guidelines verstoßen. Viel wahrscheinlicher sei ein Algorithmus-Update, also eine Veränderung in der Bewertung von Domains.

Welche Änderungen genau an der Bewertung vorgenommen wurden, bleibt vorerst noch ein Geheimnis. Google hält sich diesbezüglich wie immer bedeckt und lässt die Szene im Dunkeln tappen. Immerhin könnten laut Gary Illyes nur fünf Prozent aller künftigen Änderungen tatsächlich umgesetzt werden.

Anti Fake-News: Erweiterung des Knowledge Graphen um Informationen zu News-Seiten

Im Kampf gegen Fake-News und der damit einhergehenden automatischen Verbreitung von Fehlinformationen geriet Google immer häufiger unter Kritik. Dem soll jetzt mit Hilfe einer Erweiterung des Knowledge Graphen gegengesteuert werden.
Erweiterung des Knowledge Graphen für News-Seiten
Die Erweiterung bietet Usern Informationen zu unbekannten News-Seiten und soll folglich die Transparenz der Suchergebnisse fördern. So werden abgehandelte Themen, nennenswerte Auszeichnungen als auch Meldungen des Publishers, die von Dritten geprüft und ausgewertet wurden, direkt auf der Suchergebnisseite angezeigt.

Publisher haben keine Einflussmöglichkeiten auf die angezeigten Informationen

In Googles direkter Erläuterung wird auch auf die Frage eingegangen, inwieweit Publisher Einfluss auf die angezeigten Informationen im Knowledge Panel hätten. Die Antwort? Gar nicht.

Welche Suchergebnisse mit der Erweiterung ausgestattet werden, entscheidet ein Algorithmus, der anhand von einer statistisch signifikanten Menge und Qualität an Daten entscheidet, ob und welche Informationen in den Tabs ,,Writes-About’’, ,,Awards’’ und ,,Reviewed Claims’’ angezeigt werden. Sollte ein Publisher mit den von Dritten geprüften ,,Reviewed Claims’’ nicht einverstanden sein, kann er den jeweiligen Reviewer kontaktieren oder über den Feedback-Button melden.

Ob sich die Konkurrenz in einer neuen Form von ,,Negative SEO’’, nämlich über die Verbreitung von Fehlinformationen in dem Tab ,,Reviewed Claims’’, einen unfairen Vorteil verschafft, bleibt abzuwarten. Sicher ist jedoch, dass die Reviewed Claims von Herausgebern erstellt werden, die wiederum andere Herausgeber mit dem Fact-Check-Markup überprüfen – die Hürde zur Verfälschung der Informationen ist also entsprechend hoch.

JavaScript Links vererben vollen Linkjuice

Nachdem bereits SearchEngineLand im Jahr 2015 anhand ausführlicher Tests zeigen konnte, dass JavaScript Links vollständig indexiert und gewertet werden, hat sich John Muller jetzt in einem Tweet zu Wort gemeldet:

Tweet von John Muller zu JavaScript Links
Damit JavaScript Links allerdings vollständig gecrawlt werden können, müssen sie im DOM (Document Object Model) geladen werden. Wird nämlich ein per JavaScript eingebetteter Link erst nach dem initialen Laden einer Webseite nachgeladen, wie etwa in manchen Fällen die Navigation, um die interne Verlinkungsstruktur bestmöglich steuern zu können, wird dieser aufgrund begrenzter Ressourcen nicht gecrawlt und vererbt somit auch keinen Linkjuice.

Suchbegriff eingeben und mit Enter Suche starten