SMX München 2016 Recap, Takeaways und Fazit

Kategorie: Veranstaltungen

Die SMX München findet 2016 erneut im International Congress Center statt und bietet auch dieses Jahr ein hochkarätiges, internationales Speakerfeld mit z.B. Rand Fishkin, Marcus Tandler, Marcus Tober, Joost de Valk und vielen weiteren.

Insgesamt zwei Tage treffen sich SEO, SEA und Online Marketing Begeisterte um über Trends, Innovationen und Ausblicke der Branche zu diskutieren. Die SMX München bietet 2016 insgesamt 6 parallel laufende Tracks an 2 Tagen und gehört zur Serie der Search Marketing Expo – die weltweit führende Konferenz zum Thema Suchmaschinenmarketing.

Die MSO Digital war am 17.03.2016 und 18.03.2016 doppelt in München vertreten – Michael und Jan berichten im Recap von der Konferenz und fassen die besuchten Vorträge zusammen.

Inhaltsverzeichnis (*klick*)

Recap Tag 1 – SMX München 2016

Recap Tag 2 – SMX München 2016

Fazit und Key Takeaways der SMX München 2016 (Zusammenfassung)

 

Zusammenfassung Tag 1 der SMX München 2016

Nachdem wir am Mittwoch Abend zunächst noch den SEO Nomaden – dem Münchener SEO Stammtisch – einen Besuch abgestattet haben, startet heute der erste Tag der SMX München. Der Check-In ist schnell erledigt, die Goodie-Bags sind eingesammelt und der erste Kaffee ist getrunken. Jetzt geht es direkt zur Keynote von Rand Fishkin im großen Saal 1. Wir sind gespannt!

 

Keynote Rand Fishkin: Optimierung für eine neue Welt: wie Google Machine Learning in die Suche integriert

Rand Fishkin auf der SMX München 2016 Rand beantwortet die Fragen aus dem Publikum

SEO Status 2012: Man bietet dem User Content und hat einige Links, die auf die eigene Website zeigen. Damit konnte man bereits gute Rankings generieren. Die tatsächliche User Experience war noch weniger relevant, beziehungsweise wurde im Ranking nicht berücksichtigt.

  • Man musste sich nur noch über den Weg des Users bis zur Conversion Gedanken machen.
  • 80% Absprungrate waren (zumindest für das Ranking) kein Problem.

SEO Status 2016:

  • Google hat auf „lernende Algorithmen“ umgestellt.
  • Machine Learning lässt das Core Algorithm Team den Rankingalgorithmus selbst nicht mehr vollständig durchschauen.
  • In 2013 spricht Matt Cutts auf der Pubcon öffentlich zum Thema Machine Learning, im Oktober 2015 macht Google RankBrain öffentlich.
  • Empfehlung von Rand: Slides on Deep Learning -„ a Must Read for SEOs“ von Jeff Dean.
  • Eine gute SERP: wenige Absprünge, Short-Clicks, hohe Verweildauer. Ein Zeichen für Google, dass die User mit der SERP zufrieden zu sein scheinen.
  • Eine schlechte SERP: hohe Absprungraten, viele Long-Clicks, User klicken diverse weitere Seiten weiter. Ein Zeichen für Google, dass die User offensichtlich nicht mit den angebotenen Ergebnissen zufrieden sind.
  • Die Algorithmen bauen eigene Algorithmen.
  • RankBrain ist das dritt wichtigste Rankingsignal.
  • Neben Google nutzt auch Facebook Machine Learning, Twitter implementiert ebenfalls einen Algorithmus der auf User Signalen basiert. Ganz aktuell: Instagram ordnet den News Feed ebenfalls neu an.
  • Engagement wird die wichtigste Qualitätsmetrik im Internet werden.
  • Was kann man machen, damit die Leute nicht zurück klicken?
    1. Verstehe und bediene alle User Intentionen
    2. Optimiere Snippets auf Klicks, nicht auf Keywords (CTR relevanter als Keywords)
    3. Noise Ratio optimieren
    4. User Experience first!
    5. Schreibe ansprechende Call to Actions
  • Wer beim Engagement am besten abschneidet, gewinnt bei den Rankings.
  • Branding ist ein elementarer Faktor. Die Leute erkennen die Marken und klicken häufiger auf diese Ergebnisse, was wiederum einen positiven Effekt auf die Rankings hat.
  • Besserer Content > mehr Content
  • Bessere Social Shares >Mehr Social Shares (Low Engagement verschlechert die Reichweite der nächsten Posts)
  • Bessere E-Mails > mehr E-Mails
  • Gute Rankings > viele Rankings
  • Engagement Metriken müssen KPIs werden.
  • „2016 is a world of engagement-based reputation“

Rands Präsentation auf Slideshare:

 

Jan-Henrik Köhler, André Goldmann: Die Welt ist mobil. Sind Sie, Ihre Seiten und Ihr Business „Mobile friendly“?

Jan-Hendrik Köhler und André Goldmann auf der SMX München 2016 Jan-Hendrik Köhler und André Goldmann berichten über mobile Benutzerfreundlichkeit

  • Mobile Traffic steigt deutlich schneller als der Desktop Traffic.
  • Responsive = weniger Crawling Aufwand, daher bevorzugt von Google
  • Was kann man machen, wenn die eigene Website nicht responsive ist?
    • Mobile Subdomain:
      • Duplicate Content
      • Doppelter Pflegeaufwand
      • Nicht für alle Gerätetypen optimiert
      • Worst Case: Rankingprobleme
      • Rankingverschiebung Desktop & Mobile
      • Mobile Subdomain rankt nicht
      • Google auf mobile Subdomain aufmerksam machen
      • rel=alternate: signalisiert mobiles Äquivalent
      • Media: legt Bedingung für alternative URL fest
      • Href: Adresse der mobile Variante
      • Von Mobilen Website auf Desktop Variante per Canonical-Tag verweisen
      • Lässt sich auch über Sitemap steuern
    • Die Daten müssen schnell durch die Leitung gebracht werden.
      • Wie schwer ist eigentlich eine mobile Website?
      • Website Speedtest z.B. mit Pingdom, Google PageSpeed Insights
      • Wichtig: Pingdom checkt nur Startseite bzw. einzelne Seite
    • Ladezeit Optimierung ist ein ganz wichtiger Punkt – sowohl für Mobile als auch Desktop.
      • Bilder sind häufig der Knackpunkt (Hinweis: .webp sollte man gerade bei vielen Bildern nutzen).
      • <picture>-Element liefert Bild passend zur Auflösung bzw. zum Endgerät aus.
      • Nur durch den Einsatz des <picture>-Elements lässt sich die Ladezeit deutlich senken.
  • Optimierung für den jeweiligen Nutzer
    • User Experience ist brutal wichtig.
    • Personalisierter Content: Userdaten verwenden um Content auszuspielen (z.B. Geolocation) + Maxmind.
    • Kontext: das eigentliche Gerät berücksichtigen, die Uhrzeit nutzen, Haltung oder Befinden des Nutzers.
    • Für einfache Tests: Optimizely, Visual Website Optimizer
    • Strukturierte Daten verwenden.
  • Ausblick in die Zukunft
    • App-Indexing extrem wichtig
    • Accelerated Mobile Pages
    • Google News Carousel wird durch AMP ersetzt
    • HTTP/2

 

Jens Fauldrath, Stefan Fischerländer: Site Architecture und Search Engine Friendly Design

Jens Fauldrath macht den Anfang und beschreibt anhand von Shop Beispielen eine gute Seitenarchitektur.

Jens Fauldrath über Site Architecture und Search Engine Friendly Design Jens Fauldrath über Site Architecture und Search Engine Friendly Design

  • Suche ist ein vorqualifizierender Kanal.
  • SEO und UX gehen Hand in Hand.
  • Die Konversion beginnt auf der Suchergebnisseite.
  • Am Ende entscheidet aber die Landing Page.
  • Zentrale Frage: Wo bin ich und wohin kann ich gehen?
  • Den User immer näher zum Produkt führen – nicht ablenken. Nicht verwirren.
  • Lesegewohnheiten beachten: Skimming, Scanning, Lesen.
  • Gute SEO Texte funktionieren: Saubere Ratgeber Texte auf Kategorieseiten platzieren. Aktuell halten!
  • Ausführlicher Ratgeber bereits auf Produktübersichten mit Nutzerführung machen Sinn.
  • Wir sollten weg von Seiten, die aussehen wie ein Wühltisch und echte Seiten bauen, die beraten und verkaufen.

Als nächstes kommt Stefan Fischländer auf die Bühne.

Stefan Fischerländer: Die Seitenarchitektur ist entscheidend für den SEO Erfolg. Stefan Fischerländer: Die Seitenarchitektur ist entscheidend für den SEO Erfolg.

  • Die Seitenarchitektur ist entscheidend für den SEO Erfolg.
  • Nur nützliche Seiten indexieren lassen.
  • Typische unnütze Seiten:
    • (fast) leere Kategorien
    • Ergebnisseiten der internen Suche
    • Paginierte Seiten
    • Produkt nicht mehr lieferbar
    • Seiten mit sehr wenig Inhalt
  • Google belohnt Websites, die unnütze Seiten aus dem Index entfernen.
  • Facetten statt Hierarchien bauen.
  • Schlechte Informationsarchitektur führt zu schlechter Usability.
  • Die User nicht nur mit Ratgeberinformationen „erschlagen“, sondern gerade bei transaktionellen Suchanfragen (z.B. „Schuhe kaufen“) die Produkte früh aufführen und nicht erst am Ende (Suchintention früh ansprechen).

 

Prof. Dr. Mario Fischer & Marcus Tober: Das „Wie“ und „Weshalb“ – SEO Experimente

Marcus Tober und Mario Fischer auf der SMX München 2016 Mario Fischer auf der SMX München 2016 über „SEO Experimente“

  • Starke Kombi! Der Herausgeber von „Website Boosting“ und der Searchmetrics Gründer über SEO Experimente.
  • Mario Fischer startet mit Rankingeinbrüchen durch Google Updates.
  • Am Beispiel von kochendem Wasser (bei exakt 100°C) und gefrierendem Wasser (0°C) wird deutlich gemacht, dass der Mensch in aller Regel „das Problem“ ist.
  • Im Bezug auf SEO Tests lässt dies sich insofern übertragen, als dass Rankingveränderungen oft fehlinterpretiert werden.
  • Mario nennt ein Beispiel: Phylandocic. Ein Testprojekt bei dem 10 Domains auf dieses erfundene Keyword optimiert werden um die Auswirkung von ausgehenden Links zu testen.
  • Websites mit ausgehenden Links ranken offensichtlich besser – könnte man meinen –  allerdings spielen so viele Faktoren eine Rolle, dass dieser Schluss nicht so einfach zu gezogen werden kann.
  • Schon früh lässt sich festhalten, dass es extrem schwierig ist, Testergebnisse auszuwerten, da sich die Algorithmen ständig ändern und zu viele Faktoren eine Rolle spielen.
  • Positionswechsel können auch durch Änderungen anderer Websites entstehen.
  • Wir sollten also bei negativen Rankingveränderungen (zufällig) nach Veränderungen an der Webseite nicht direkt in Panik verfallen und die Veränderung rückgängig machen.
  • Um die Korrelation der Änderung zu verifizieren sollte stattdessen testweise die Veränderung rückgängig gemacht werden, nachdem das Ranking spürbar gestiegen ist.
  • Fazit: Viele Geburtstage sind gut für die Gesundheit, denn wer öfter Geburtstag hat lebt nachweislich länger.

Marcus Tober auf der SMX München 2016 Marcus Tober und „Wie teste ich Rankingfaktoren?“

  • Jetzt startet Marcus Tober – Es geht um das Testen von Rankingfaktoren.
  • Das Beispiel: „Johan Wolfgang von Goethe“ zeigt: Wenn Wikipedia unter den Konkurrenten ist, „verfälscht“ das oft die Ergebnisse und kann zur Annahme falscher Korrelationen führen.
  • Marcus beschäftigt sich detailliert mit Wikipedia und vergleicht die Rankings nach Branchen und den Zusammenhang mit typischen Rankingfaktoren für „normale“ URLs.
  • Ergebnis des Tests: Wikipedia scheint eine Art Sonderstellung bei Google zu haben.
  • Bei Analysen sollte also dringend darauf geachtet werden, dass man Wikipedia exkludiert, um keine verwässerten Ergebnisse zu erhalten und so falsche Rückschlüsse zu ziehen.
  • Der Einfluss von Faktoren wie z.B. Backlinks unterscheidet sich zudem je nach Branche.

 

Eoghan Henn & Ralf Ohlenbostel: hreflang – der Teufel steckt im Detail

Eoghan Henn von rankingCHECK auf der SMX in München 2016 Eoghan zeigt auf, wie das hreflang-Tag korrekt zu nutzen ist.

  • Googles John Müller hört ebenfalls interessiert zu! ;-)
  • Beineidenswert: Eoghen arbeitet bei rankingCHECK aus Köln – allerdings in Spanien.
  • Schon die erste Folie zeigt: Es geht um Code.
  • Erster Tipp: Eine Länderdomain (ccTLD) für andere Länder ist keine gute Idee.
  • Zweiter Tipp: X-Default für eine international geeignete Version verwenden und z.B. nicht für die deutsche Homepage zu ranken.
  • Dritter Tipp: Hreflang + Canonical-Tag: Seiten die per Canonical-Tag auf eine andere URL verweisen, sollten nicht mit hreflang-Tag ausgezeichnet werden.
  • Ralf von Zalando macht weiter und hat laut eigener Aussage basierend auf der vorangegangen Präsentation nicht alles korrekt umgesetzt.
  • An alle Developer: Ja, es macht Sinn per hreflang-tag auch auf „sich selbst“ zu verweisen.
  • Zalando hat autarke Teams für Katalog, CMS, Produkte und Content Hub. Bis vor kurzem wurde für diese „Inseln“ jeweils separat SEO betrieben. Mittlerweile gibt es einen SEO Service, der alle Bereiche „beliefert“.
  • Gerade das Thema hreflang hat offenbar bei Zalando noch Luft nach oben, wodurch z.B. in Österreich viel Potenzial besteht.
  • Auf Produktebene ist es eine angenehme Alternative, die hreflang-Tags über die Sitemap statt über den Head zu hinterlegen.

 

Dela Quist: Marketing-Automatisierung macht den Traum von Multi-Channel Marketing-programmen zur Realität

Dela Quist auf der SMX München 2016 Dela Quist auf der SMX München 2016

  • Der CEO von AlchemyWorx fragt sich warum noch so wenige Unternehmen von Automatisierung Gebrauch machen.
  • Konkret geht es um das Thema E-Mail Marketing.
  • 2014: 947 Anbieter von Online Marketing Technologie
  • 2015: 1876 Anbieter
  • Dela Quist behauptet, dass die wenigsten oder sogar niemand der Anwesenden wirklich wissen, was Multi-Channel Marketing wirklich bedeutet.
  • Neben der Nutzung verschiedener Kommunikationskanäle werde die Interaktion mit dem Kunden in der Regel überhaupt nicht berücksichtigt.
  • Wichtig sei es, zu wissen, wie und warum der Kunde auf Dich aufmerksam geworden ist, was oft vernachlässigt werde.
  • „E-Mail is the key to multi-channel eCRM“
  • Jeder ohne eine E-Mail Adresse ist das digitale Äquivalent zu obdachlos.
  • E-Mails sind sehr diskret und daher für persönliche Werbung perfekt geeignet.
  • Menschlicher Traffic macht weniger als die Hälfte des weltweiten Web Traffics aus.
  • E-Mail Marketing hat einen signifikanten Einfluss auf die Sales, insbesondere zum Zeitpunkt des Versands und kurz danach.
  • E-Mail Marketing erhöht die Sales in allen anderen Channels.
  • „Not doing something is as powerful as doing something: Learn from the negative as well as from the positive.“

 

John Müller: Der perfekte Relaunch

  • Zu allererst macht Müller klar: Um Missverständnisse zu vermeiden ist der korrekte und einheitliche Gebrauch von technischen Bezeichnungen wichtig.
    • Protokoll
    • Host
    • Pfad
    • URL
    • Seite vs. Site
  • Auch die Umstellung von http auf https kann als Relaunch gesehen werden, wobei hier in der Regel keine großen Veränderungen beim Ranking zu erwarten sind.
  • Vor allem bei Zusammenfügen oder Splitten von Webseiten sind Ranking-Veränderungen zu erwarten.
  • Tipps von Googles Webmaster Trends Analyst:
    • Zuerst sollten alle URLs dokumentiert werden (auch Bilder, CSS-Dateien etc.)
    • Man sollte nicht vergessen auch robots.txt, Dateien und Disavow-Dateien zu berücksichtigen.
    • Bei Host-Wechsel sollte man mögliche Webspam-Probleme prüfen.
    • Einzelne URLs über die Search Console crawlen und rendern lassen.
    • Sitemap „lastmod“ Datum aktualisieren.
    • Bei 301-Weiterleitungen auf neue URLs auch Canonical-Tags der mobile Versionen etc. beachten.
    • Bei Host-Wechsel alte robots.txt Datei leeren und für neuen Host eine neue robots.txt erstellen.
    • Geo-Targeting nicht vergessen.
    • Domain-Wechsel ggf. bei Google News anmelden.
    • Änderungsdatum in alter Sitemap anpassen, so dass die URLs gecrawlt werden und die Weiterleitung erkannt wird.

 

Mariya Moeva, Emily Grossman, Cindy Krum: Mobile SEO mit Apps und Deep App Linking

Mariya Moeva - Google Trends Analyst - auf der SMX München 2016 Mariya Moeva – Google Trends Analyst – auf der SMX München 2016

Emily Grossman auf der SMX München über das App Store Model Emily Grossman auf der SMX München über das App Store Model

 

 

 

 

 

 

 

 

  • Baut eine einzigartige und kombinierte mobile Strategie: Die Kombination aus App und Website kann sowohl den Traffic in Summe deutlich steigern als auch das Engagement mit Eurem Content.
  • 90% der Zeit am Smartphone erfolgt in Apps.
  • 30% der Online Sales erfolgen mobil.
  • Apps sind von der Anzahl auf dem Status von Websites um ca. 1997.
  • Google zeigt bereits prominente Snippets in der Suche mit einem direkten Link zur App.
  • Darüber hinaus werden in der Google Suggest App Ergebnisse vorgeschlagen für Apps, die man häufig nutzt.
  • Bei 40% der Suchanfragen werden Links zu Apps angezeigt.
  • Mit App-Indexing werden Website und App Rankingverbesserungen erhalten, sobald der User die App installiert hat.
  • App kann in Search Console eingereicht werden – Behandlung erfolgt wie bei normaler Website Property (Feature: Fetch as Google for Apps).
  • Nähere Infos zum App-Indexing: g.co/appindexing, g.co/appindexingstudies.
  • Zu Beginn ließen sich User nur direkt auf die App führen, mit App-Indexing ist es möglich spezifische URLs zu übergeben, so dass der User auf Deep Links innerhalb der App gelangen kann.
  • Android: HTTP URL Schema werden von Google gemocht, Custom URL Schema nicht.
  • iOS: appe-app-site-association muss erstellt werden, die auf einer HTTPS URL liegt.
  • Wenn App und Website miteinander verknüpft sind holt Google sich Title und Meta-Description von der verknüpften Website zu einem App-Ergebnis.
  • robots.txt für Apps anlegen und Googlebot zulassen.
  • Was verhindert das App Deep Linking?
    • Wird der Googlebot geblockt?
    • Android User sind am falschen Account angemeldet.
    • Falsche URL Schemas
    • Schlechte Behandlung der Deeplinks im App Code.
    • Jede Domain, Subdomain etc. muss separat behandelt werden.
  • Future of App Indexing: Google bekommt immer größeren Zugriff auf den „privaten Index“ und kann darauf basierend Vorschläge machen (Was habe ich für Musik gehört? Welche Apps habe ich installiert? Welche Kontakte und Fotos sind hinterlegt? GMail, Maps, Kalender etc.)
  • Auch für Apps und für das Ranking von Apps sind Engagement Daten extrem wichtig.

 

Kaspar Szymanski: Backlinking Audit for Fun & Profit

Kaspar Szymanski, ehemals im Google Search Quality Team aktiv, berichtet über Abstrafungen durch Backlinks Kaspar Szymanski, ehemals im Google Search Quality Team aktiv, berichtet über Abstrafungen durch Backlinks[

  • Kaspar berichtet als ehemaliger Mitarbeiter im Google Search Quality Team über Abstrafungen durch Backlinks.
  • 99% aller Abstrafungen werden wegen Backlinks vergeben.
  • Penguin ist keine Strafe, sondern ein Algorithmus, der viel mit Backlinks zu tun hat.
  • Anchor-Texte (Money) sind ein Risiko.
  • Backlinkdaten aus der Search Console sollten täglich runtergeladen werden.
  • Je häufiger ich die Daten herunterlade, desto häufiger werden sie aktualisiert.
  • Die Backlinks müssen evaluiert werden:
    • Wo kommen die Links her?
    • Wie ist die Qualität der Inhalte, aus denen die Links gesetzt werden?
    • Backlink Audits können nur zu einem gewissen Teil automatisiert werden, ansonsten ist der Prozess manuell abzubilden.
  • Google Guidelines werden regelmäßig aktualisiert.
  • Basierend auf der Bewertung baut man einen Disavow File auf.
    • Keine individuellen Pages aufnehmen, direkt die gesamten Domains entfernen.
  • Man kann nicht vorhersehen wie sich der Cleanup auf die Sichtbarkeit auswirkt. Die Bereinigung kann einen positiven Effekt haben, muss sie aber nicht immer.
  • OnPage ist das neue OffPage.
  • In umkämpften Feldern, sind Ladezeitenoptimierungen extrem wichtig.
  • Crawl-Budget und Indexierung optimieren.
  • Branding ist extrem wichtig.
  • Ein einzelner Link wird niemals ein Problem sein, das gesamte Linkprofil in Summe schon.
  • Wie kann man gute Links organisieren?
    • Traffic-Links sind wichtig.
    • Nofollow ist kein Risiko, gibt keinen PageRank weiter.
    • Mentions sind sehr sinnvoll, Branding ist ein sehr relevanter Faktor.
  • Seiten können partiell abgestraft werden, Verzeichnisse können abgestraft werden, aber auch einzelne Seiten.
  • Thematische Nähe ist extrem wichtig, Offtopic Links sind für Google ein starkes Anzeichen für Linkbuilding.
  • Man kann abgestraft werden und trotzdem keine Meldung in der GSC bekommen. Passiert nicht so häufig, kann aber vorkommen.

 

Joost de Valk: Large Scale SEO – So bringen Sie Ordnung ins Chaos

  • Die letzte Session des Tages kommt vom CEO von Yoast.
  • Sein erster Tipp: Benenne Dein Unternehmen nicht nach Dir selbst.
  • Das analysieren des Traffics über Google Analytics reicht nicht aus.
  • Joost empfiehlt auf Seitenbasis die Daten um soziale Signale zu erweitern und so Einsichten über das Engagement der User zu gewinnen um mögliche Korrelationen mit Rankingveränderungen und Crawlerverhalten herzuleiten.
  • Außerdem sollten Logfiles analysiert werden, um das Crawlerverhalten nachzuvollziehen.
  • Logs sollten zentralisiert werden.
  • Interne Suche sollte genutzt werden um Keyword Potenziale zu erkennen.
  • Im Optimalfall sollte auch intern mit kompletten URLs verlinkt werden (Sowohl aus der Navigation, als auch App URLs, hreflang-Tags & AMP URLs).
  • XML-Sitemap auf die interne Such-API ausrichten.
  • Interne Search API für verwandten Content nutzen.
  • Kontinuierliche Integrations Tests für Canonicals, hreflang, URLs.
  • Entwickler sollten sich mit technischem SEO auseinandersetzen.
  • Analytics Anwender sollten über den Tellerrand hinaus blicken und die Daten anreichern.

Die Präsentation von Joost auf Slideshare:

 

Zusammenfassung Tag 2 der SMX München 2016

Nachdem wir gestern Abend noch einen Abstecher in die Münchener City unternommen haben, um uns das Europa-League Spiel Borussia Dortmund vs. Tottenham Hotspur anzusehen, geht es heute Vormittag weiter mit dem zweiten Konferenz Tag. Die Keynote startet heute erst nach der ersten Vortragsreihe, dennoch warten direkt zu Beginn erneut Marcus Tandler und Rand Fishkin mit einem Beitrag im Content Track auf uns. Los geht’s mit Tag 2!

 

Marcus Tandler, Rand Fishkin: Content Republishing

Boston Consulting matrix umgemünzt auf Content Republishing Mit dieser an Boston Consulting angelehnten Matrix lässt sich eine konsistente Content Taktik herleiten

  • Früher: Je mehr Content ich habe desto besser.
  • Google will nicht den größten Index der Welt erstellen, sondern den Index mit der größten Relevanz.
  • Speed wird einer der wichtigsten Faktoren werden.
  • Man sollte 10x Content erstellen und wirklichen Mehrwert für den Benutzer anbieten. Man sollte sich fragen: Wenn mein Content morgen aus dem Web fliegen würde, würde ihn jemand vermissen?
  • Jesus hat das beste Content Marketing der Geschichte gemacht: Extrem gutes Bildmaterial, die Jünger als Guestblogger
  • Content:
    • Gut strukturiert
    • Bulletpoints
    • Easy to Read
    • Link Out
    • Sei ein Hub für Informationen
    • Keine Pop-Ups
  • Klickrate der Snippets ist extrem wichtig. Das wurde inzwischen auch mehrfach von Google selbst bestätigt.
  • User Feedback erweitert das finale Ranking um Engagement Faktoren.
    • Klickrate
    • Verweildauer
    • Seitenaufrufe
    • Zurückkehrende Benutzer
    • Social Signals
  • SEOs sollten auf den Long-Click optimieren
  • „Holistic Content is key“
  • Google mag es Ergebnisse, die Longtail Anfragen beantworten, in Shorttail Ergebnisse zu spielen. Insbesondere wenn die Longtail Anfragen häufig gesucht werden und die Shorttail anfrage näher verfeinern.
  • Anschließend übernimmt Rand und startet mit einem Klicktest. Für die Suchanfragen „Marcus Tandler SEO“ soll das OnPage.org Ergebnis nach vorne gebracht werden, ausschließlich durch die Klickrate. Aktuell ist es die 6. Position.
  • Republishing auf anderen Domains um zusätzliche – nicht erreichbare – Nutzergruppen zu erreichen.
  • 4 Taktiken fürs Republishing:
    • Guter Content der regelmäßig geupdatet werden kann (z.B. monatlich). Mit jedem Intervall sollte zusätzlich relevanter Content ergänzt werden können. Beispiel Ranking Factor Survey von MOZ, Trendanalysen,
    • Lokalisierung: Content wird in einer Sprache aufgebaut und in diverse Regionen und Sprachen übersetzt und veröffentlicht. Beispiele: AirBnB Nachbarschaftsguides, Oyster Award Winning Hotels
    • Umfangreicher Content, der weitere „Sub—Content“ Möglichkeiten anbietet. Beispiele Moz Cast, „How the Internet talks“, IFixIt Guides
    • Guten Content auf externen Seiten publizieren und mit Canonical-Tag den Original-Inhalt referenzieren.
  • Republishing ist eine SEO-Taktik genau wie jede andere SEO-Taktik und sollte nicht missbraucht werden.

Klicktest Marcus Tandler SEO Ca. eine Stunde nach dem Klicktest ist OnPage.org in der mobilen Suche für die Anfrage „Marcus Tandler SEO“ von 6 auf 2 gerutscht. Das Keyword befindet sich weder in den Meta-Angaben, noch im Content.

Rands Präsentation auf Slideshare:

 

Marty Weintraub : Social? Psychographics? Data? SEO? PR? PPC? Was zur Hölle ist eigentlich Marketing heutzutage?

Marty Weintraub auf der SMX München 2016 Folien mit Donald Trump sind der Running Gag bei den Amerikanern

  • Marty stellt für Bereiche des Online Marketings verschiedene Hacks vor.
  • Google liebt es bezahlte Inhalte zu indexieren.
  • Psychograpic Targeting
  • Kauft Artikel, auf mittelgroßen Publisher Seiten, die bei Google News gelistet sind. Selbst wenn die Artikel gesponsored, bezahlt und entsprechend markiert sind indexiert Google diese trotzdem.
  • Für Suchphrasen, mit denen man mit der eigenen Domain nicht ranken wird (zu kostspielig), lassen sich Artikel von großen Publishern kaufen um über den Artikel Leads zu generieren.
  • Mit den eigenen erstellten Inhalten lassen sich Journalisten z.B. über Facebook targeten („z.B. Journalist der bereits seit mehreren Jahren beim Wall Street Journal arbeitet und über den Digitalbereich schreibt“).
  • „Sell Something now, Sell Something Later“: Wenn dann noch nichts verkauft wurde machen wir Content Marketing.
  • Datenpool über teures, suchvolumenstarkes Keyword sammeln und anschließend über günstigere Longtails retargeten.

 

WOTR: RankBrain & Co – Let’s talk

WOTR auf der SMX München 2016 Illustre Runde auf der Bühne: Marcus Tandler, Joost de Valk, Mike King, Rand Fishkin und Marcus Tober

  • Donald Trump bekommt mal wieder sein Fett weg. Folien, die sich über den „Politiker“ lustig machen sind unter den Amerikanern dieses Jahr der Running Gag.
  • Interesssanter Fakt: Das Yoast Plugin wird auf 11% der Top-10 Websites weltweit verwendet.
  • Die vier Experten diskutieren über bisherige Erkenntnisse über RankBrain.
  • Erste Erkenntnis: durch Rankbrain werden Suchintentionen besser verstanden, wodurch vor Allem kommerzielle Seiten deutlich weniger für informationsbasierte Anfragen ranken, was durchaus Sinn ergibt. Beispiel: Kostümideen.
  • Im Zweifel hilft nur eine manuelle Recherche pro Keyword, um die objektive Suchintention zu verstehen.
  • Nächste Diskussion: Hat Google zwei Indizes für Mobile und Desktop? Die Meinungen gehen auseinander.
  • Beim Thema Backlinks sind sich alle Experten einig. Links sind nach wie vor sehr relevant!
  • Fazit zum Thema Klickkauf: Es ist nahezu unmöglich User Signale nachhaltig zu faken.
  • Nach der Fragerunde ergibt sich spontan noch eine Wette: Joost de Valk glaubt, dass Facebook in den kommenden Jahren eine große Rolle in der Websuche einnehmen wird. Rand Fishkin glaubt nicht daran und behauptet, dass Facebook nicht einmal 1% des Search Traffics im Vergleich zu Google einnehmen wird. Zeitraum: 2 Jahre.

 

Bastian Grimm, Philipp Klöckner: Crawl Budget Best Practices – 10 Tipps für maximal effiziente Websites

Philipp Klöckner, externer Berater von Rocket Internet, über die Ökonomie des Crawlings Philipp Klöckner, externer Berater von Rocket Internet, über die Ökonomie des Crawlings

  • Auch für SEOs gilt das ökonomische Prinzip.
  • Jeder Website wird ein bestimmtes Crawl-Budget zugeordnet, das orientiert sich in etwa am PageRank.
  • Google Data Centers sind eine sehr knappe Ressource.
  • Crawling kostet Geld, daher muss man wirtschaftlich damit umgehen.
  • Crawl Budget abhängig von:
    • PageRank
    • Content Quality (DC, Thin Content)
    • Freshness / Change Frequency
    • Relevanz und Nachfrage
    • Page Speed
  • Wenn eure Website schnell ist werden tendenziell mehr Seiten gecrawlt. Optimierter Page Speed hat also einen positiven Effekt auf das Crawl Budget. Page Speed = Ranking Bonus.
  • Generelle Auffindbarkeit aller URLs ist wichtig (in 2-3 Klicks erreichbar für den Bot).
  • Priorisierung des Crawlings (PageRank Sculpting)
  • SEO nach Pareto Prinzip (80/20 Regel):
    • Manche Dokumente sind wichtiger als andere.
    • Die meisten sind ökonomisch komplett nutzlos.
    • Warum dann alle crawlen?
    • Zu viel DC stört das Crawling.
  • Panda – Diät 101:
    • Ich schneide alles weg was nicht einem gewissen Qualitätsstandard entspricht.
  • Welche Seiten als erstes raus?
    • Leere Seiten (Kategorieseiten)
    • Thin Pages (Kategorieseiten mit wenigen Ergebnissen)
    • Duplicate Content (intern und extern)
    • Detail Pages (SERPs & Katalog oft bessere UX)
      • eCommerce
      • Aggregation
    • Häufige Frage: Aber was ist mit meinem Longtail? Klasse statt Masse!
    • Longtail beackert man nicht mehr mit mehr Seiten / Produktdetailseiten, sondern in dem man die starken Seiten noch umfangreicher mache.
    • Log File Analyse: GoogleBot Aktivität sehr guter Qualitätsindikator für Dokumente (welche Seite wird tatsächlich selten oder gar nicht gecrawlt).
    • Interne Verlinkung:
      • Wichtige Seiten sollten auch entsprechend viele interne Links haben…
    • Quick Wins
      • Produkte sollten in Kategorien nach Propularität sortiert werden (oder Bestseller Listen bauen à Top Seller erhalten mehr Links).
      • Neue Produkte ebenfalls separat aufführen, damit neue Produkte schnell PageRank erhalten.
      • Related Products aufnehmen.
      • Breadcrumbs sind sehr wichtig für die Verteilung der Prioritäten.
      • Prioritäten über Sitemap vergeben.
      • Mehr Produkte pro Seite anzeigen, damit deutlich weniger Paginierungsseiten gecrawlt werden müssen. „Die Leute wollen scrollen, nicht weiter klicken.“
      • Nur „vor“ und „zurück“ anbieten.
      • Länderversionen nicht von jeder Seite aus dem Footer verlinken : unnötiges Crawl Budget.

Nachdem Philipp mit seinen Slides durch ist kommt als nächstes Bastian Grimm auf die Bühne mit der Vorwarnung „Es wird sehr technisch“. Bastian präsentiert die 10 häufigsten Fehler, die in den letzten 2 Jahren im technischen SEO hinsichtlich Crawling aufgetreten sind.

  • Ausgangspunkt: Search Console
  • Es geht vor allem um Effizienz: Wie gehe ich mit meinem Crawl Budget effizient um?
  • Thema #1: Crawler richtig steuern
    • Meta Robots Tag vs. Robots.txt
    • Meta-Tag wird nicht gelesen, wenn URL-Pattern über robots.txt gesperrt ist.
    • Wenn ich eine Seite für die Indexierung frei gebe, muss ich mir die Frage stellen, ob sie wirklich Mehrwert bietet.
    • Noindex-Kandidaten aus Datenanalyse bei GA ablesbar.
    • Löschen ist effizienter als noindex, da kein Crawl-Budget genutzt wird.
  • Thema #2: Weiterleitungen
    • 301 für Weiterleitungen
    • Code-Hygiene:Verlinkte Redirects auch im Quellcode aufräumen.
    • Weiterleitungsketten verhindern und regelmäßig bereinigen. Google folgt nur 3 Redirects in einer Kette.
  • Thema #3: Fehlerseiten
    • Verlinkte 404-Seiten korrigieren.
    • Broken Links in der GSC oder via DeepCrawl regelmäßig beheben.
    • Dauerhafte Entfernung über 410 und nicht 404. 404er werden häufiger recrawlt, 410 (gone) geht deutlich schneller. 410 lässt sich nicht reaktivieren – URL ist tot.
  • Thema #4: Canonical-Tags
    • Ist nur ein Hinweis, keine Direktive (sie müssen nicht folgen, sie können).
    • Canonical-Tags werden recrawlt.
    • Filterungen und Sortierungen sind in Ordnung.
    • Absolute URLs verwenden.
    • Nur eine URL im Canonical vergeben.
    • Bei HTTPs Umstellung auch die Canonicals auf HTTPS umstellen.
    • Nicht auf 4xxer setzen.
  • Thema #5: XML Sitemaps
    • Was gehört da eigentlich rein?
    • Ausschließlich 200er URLs!
    • Keine Redirects, robots.txt, Meta Robots gesperrten URLs mit abweichendem Canonical.
    • Einfach über Screaming Frog zu überprüfen.
    • Quick & Dirty: SEO Tools for Excel
    • Auch dieser Check muss regelmäßig durchgeführt werden.
  • Thema #6: Faceted Navigation
    • POST-Redirect-GET-Pattern schafft suchmaschinenfreundliche Reduzierung von Verlinkung.
  • Thema #7: Paginierungen
    • Seite 1 indexieren, Seite 2 und folgende „noindex“.
    • Komponentenseiten verbinden mit dem rel-Attribut.
  • Thema #8: GET Parameter Reihenfolgen
    • Vertauschte Parameter (z.B: bei Filterungen) generieren individuelle URLs, die Crawl Budget verbrauchen.
    • Technik muss Lösung finden, damit Reihenfolge der Parameter direkt sortiert wird.
  • Thema #9: Interne Suche
    • Interne Suche werden getätigt, bei GET Parameter.
    • Auf POST Parameter umstellen.
  • Thema #10: Achtung bei Non-HTMLs
    • X-Robots-Tag um Indexierungssteuerung zu handhaben (z..B. PDF, AJAX).
    • X-Robots-Rel-Canonical: von PDF auf tatsächliche HTML Variante.

Die Slides von Bastian und Philipp findet ihr hier:

 

Marcel Kollmar, Ralf Ohlenbostel: Content, SEO & E-Commerce

  • Marcel startet mit der Frage: Wie können SEO & Content im Online Shop zusammen spielen?
  • Der meiste Content in Online Shops ist immer noch schrott, funktioniert aber häufig immer noch, da die User Signale über die Produkte rein kommen.
  • 2016 sollte eine nachhaltige Content Strategie anders aussehen:
    • Strategische und taktische Ziele definieren
    • Ich muss mir überliegen was ist der Bedarf des Kunden.
    • Welche KPIs sind relevant?
  • Strategische Ziele wie Branding, Vertrauen, Kompetenzvermittlung werden heutzutage noch viel zu wenig berücksichtigt.
  • AIDA Modell berücksichtigen (Inspirieren und Problemlösung anbieten).
  • Was kann man in einem Online Shop machen?
    • Blogs
    • Themenwelt
    • Ratgeber
    • Tests
    • Produktvergleiche
  • Inspiration, Beratung und SEO kombinieren.
  • KPIs: Keep it simple and stupid
  • Attributionsmodelle berücksichtigen, insbesondere wenn man Ratgeber und Themenwelten aufbaut.
  • Texte so schreiben, dass man auf die Fragen des Nutzers eingeht und versucht deren Probleme zu lösen. Personas erstellen.
  • Content Operations
    • Content Briefing
    • Content Creator
    • Qualitätssicherung
    • Content Integration
  • Content immer vom Kunden her denken, verschiedene Blickwinkel einnehmen.
  • Das Briefing ist entscheidend. Man muss dem Redakteur ganz genau sagen was man erwartet.
  • Interne Qualitätssicherung muss erfolgen. Texte müssen alle geprüft werden. Das kann man in der Regel nicht outsourcen.
  • Content muss so integriert werden, so dass er auch dem User einen Mehrwert bietet.
  • Mobile & Content: Lange Texte sind im mobile Bereich schwierig. Im Mobile Bereich Zusammenfassungen anzeigen.
  • Beispiel windeln.de Magazin mit 1,5 Millionen Page Impressions:
    • Ratgeber lassen sich sehr gut zum Retargeting nutzen.
    • Konvertiert natürlich nicht so gut wie der Traffic im Shop, aber ist sehr starkes Branding.
    • Videos zur Produktvorstellung nutzen (z.B. whisky.de)
  • Als nächstes kommt Ralf Ohlenbostel mit dem Thema „Content @ Zalando“
  • Er startet erst einmal mit einem „Fuck-Up“ zum Thema Jeans Guide: 3 Abteilungen haben Ressourcen in Grafik und Tech geblockt um jeweils eigene Jeans Guides zu bauen.
  • Kunden sollten über alle Channels gleich angesprochen werden, das gilt auch für die Texte im Shop.
  • PR + Brand – Content Marketing und SEO sollten einen einheitlichen Kommunikationsplan haben.
  • Takeaways:
    • Co-Pilot sein ist okay
    • Nutzt Synergien
    • Baut keine Insel

 

Tom Anthony: A Post-Pagerank World – The Rise of Personal Assistant Apps

Tom Anthony über den Aufstieg von Personal Assistant Apps auf der SMX München 2016

  • Voraussage von Anthony: 2019 wir es mehr Präsentationen über non-web SEO geben als über Web-SEO.
  • Alles was Google macht, ergibt Sinn, wenn es um Personal Assistants wie Google Now geht:
    • Beispiel Autos: „Take me home Google“
  • Kontext, passive Suche und Smartphones: Google analysiert seit 2011, was Menschen wissen wollen und versucht schon im Voraus zu antizipieren, was der User in Zukunft suchen wird und bereitet Antworten vor.
  • Das Keyword wird vom Kontext abgelöst.
  • Google versteht bereits mehr als die Hälfte der Suchanfragen basierend auf Suchanfragen die mehr als einen Monat zuvor getätigt wurden.
  • Nächstes Thema: Transaktionsbasierte- vs. Informationsbasierte- vs. Navigationsbasierte Suchanfragen über Personal Assistants:
    • 50-80% aller Suchanfragen sind informationsbasiert.
    • Ein Großteil wird bereits über den Knowledge Graph beantwortet.
  • Third Party Integrationen in APIs werden für Anbieter zukünftig unerlässlich
    • Beispiel: Der nächste Buchladen, der ein bestimmtes Buch auf Lager hat.
  • Natürliche Sprache wird die Komplexität von Suchanfragen erhöhen („Ich würde gerne schöne Schuhe kaufen“ anstatt „schöne Schuhe kaufen“)
  • Die Komplexität steigt erheblich durch aufbauende Suchanfragen und kombinierte Suchanfragen.
  • Ausblick in die Zukunft durch Anthony:
    • Werden Websites von Dritten zukünftig von Personal Assistants abgelöst?
  • Tipp: App Indexierung und Integration!!

 

Martjin Burgman: Partner mit Potenzial: Wie sich Public Relations zusammen mit Content neu erfindet

Martjin Burgman auf der SMX München 2016 Martjin berichtet über Erfahrungen aus dem Bereich Content Marketing und über die Kampagne mit dem Stylight den SEMY Award gewinnen konnte.

  • Wie kann der Content sehr starke Links bekommen?
  • Steche mit deinem Content aus der Masse heraus!
  • Man sollte beim Content Marketing zunächst mit dem Ziel starten, anstatt mit einer konkreten Content Idee.
  • Man sollte seinem Publikum zuhören und daraus neue Ideen identifizieren
  • Man kann auf Hypes aufspringen und sollte versuchen diese in seine eigene Branche zu integrieren (Beispiel Minions adaptiert auf Fashion Branche).
  • Die Promotionsphase ist einer der schwierigsten Teile einer Kampagne.
  • Promotion kann unterteilt werden in Owned Media, Earned Media, Paid Media.
  • Nachdem die Kampagne gestartet und öffentlich ist sollte man der Zielgruppe zuhören. Was wird getweetet, was sagen die Leute zum Contentpiece, was wird nachgefragt?
  • Takeaways
    • Klare Prozesse definieren um effizient zu arbeiten und gute Resultate zu erzielen.
    • Kommunikation ist sehr wichtig.
    • Erweitere und baue den Content aus, wenn er erfolgreich war. Leite weitere Ideen daraus ab.
    • Das Monitoring muss automatisiert werden.
    • Ergebnisse und Aktivitäten in Real-Time bewerten.
    • PRs sollte von Anfang an in die Kampagne integriert werden.
    • Der Content sollte getestet werden.
    • High Risks = High Rewards.

Martjins Slides findet ihr hier:

 

Dominic Woodman: What is AMP and do I care?

  • Google hat ein Problem mit mobilem Internet.
  • Konkurrenten haben mit Produkten wie Instant Articles, Apple News Stand und Native Apps bereits Probleme dafür gefunden.
  • Deswegen hat Google das AMP Projekt gestartet.
  • Eine Anzahl an Regeln für Web Development, die Speed garantieren.
  • Wann ist AMP relevant ?
    • Gerade wenn Google News eine relevante Trafficquelle ist
    • Wenn viel Content produziert wird
    • Wenn der Content distribuiert werden soll
    • Hat die Website einen hohen Anteil an Mobile Traffic?
    • Websites mit einem Sitespeed Problem
  • Wie viel Aufwand ist dafür notwendig?
    • Abhängig von den Ads: Vieles ist nicht mehr möglich.
    • Abhängig vom Ad Network: AdSense ist z.B. möglich, an DoubleClick wird noch gearbeitet.
    • Abhängig vom verwendeten JavaScript: kein 3rd-Party-Level JavaScript möglich.
    • Abhängig vom Design bzw. den verwendeten Elementen. Umfragen, Quizzes nicht möglich.
    • Drupal, Joomla, WordPress haben bereits mit AMP gestartet und bieten Plugins an.
  • Am besten erst einige Testseiten auf AMP umstellen und AMP testen.

 

Cindy Krum: AMP Speed without AMP Validation

Cindy Krum auf der SMX München 2016 Cindy Krum von MobileMoxie erklärt wie man AMP Speed ohne AMP Validation herstellen kann.

  • Seiten die AMP laufen haben werden in ein „AMP:-Carousel“ gepusht, das sehr gute Positionen auf der SERP verspricht.
  • Responsive Design ist gut, aber nicht die Antwort, da es aus User Sicht immer noch nicht gut ist. Es ist einfach zu langsam, insbesondere im mobilen Bereich.
  • AMP adressiert viele Probleme von modernem Code, befindet sich aber nach wie vor in der Entwicklung. Das Entwicklungsteam muss diese ständigen Veränderungen umsetzen können.
  • Durch AMP erhält Google Analytics nur noch beschränkte Daten.
  • AMP lässt keine Cookies zu.
  • Chrome Plugin: AMP Validation. Listet Fehler im Code auf.
  • AMP HTML Code Testing Tool
  • Wie kann ich AMP Performance ohne AMP erreichen?
    • Es wird ein wirklich guter Developer benötigt. „A really, really fantastic developer“
    • HTTP Requests deutlich reduzieren
    • 50KB CSS: CSS minimieren
    • PreRender Content by Viewport
      • <link rel=“preRenderpreFetch“ href=“http://www.NextPage/page“>
    • Critical Path Rendering
    • Laden von externem JavaScript: Nutzen der AMP Javascript Library und Modifizieren. Asynchron Laden.

 

Stephan Walcher: Google Search Console & Bing Webmaster Tools

  • Der Beitrag von Malte Landwehr zum Thema Knowledge Graph fällt leider krankheitsbedingt aus.
  • Ersatzweise springt Stephan Walcher von OnpPge.org ein.
  • Stephan startet mit den absoluten Grundlagen zur Einrichtung der Search Console.
  • Im weiteren Verlauf wurden die Search Consolen von Google und Bing Schritt für Schritt durchgegangen.
  • Keine bahnbrechenden Insights.

 

André Goldmann: Bilder an die Macht – die Do‘s & Don’ts

  • Andre startet kommentarlos mit einigen sehr aussagekräftigen Bildern.
  • Die Aussage dahinter: Bilder können in wenigen Sekunden sehr viel wiedergeben, was durch Text unmöglich ist.
  • Bilder können die Wahrnehmung von Themen beeinflussen.
  • Bilder machen Webseiten (un-)seriös.
  • Nicht die erstbesten Stockfotos nehmen, die oft inflationär auf Websites zu finden sind.
  • Außerdem gibt es viele sehr fragwürdige Motive.
  • Nach Möglichkeit sollte man (natürlich) seine Bilder selber machen.
  • Hierfür empfiehlt Andre einige Geräte.
  • Nun gibt es einige Tipps zum Fotografieren:
    • Drittel-Regel: Das Motiv nicht zentrieren sondern um ein Drittel verschoben.
    • Weißabgleich nutzen
    • Auf Augenhöhe arbeiten
    • Blickrichtung: Der Mensch „liest“ auch Bilder von Links nach Rechts.
    • Motive isolieren
    • Fokus aufs Auge
    • Trend: 360° Fotografie inklusive Best Practices

 

Fazit und Key Takeaways der SMX München 2016

Die SMX München ist auch dieses Jahr ein Highlight gewesen. Neben der SEO Campixx ist sie für jeden SEO und Search Marketer eine absolute Pflichtveranstaltung im Jahr – trotz des vergleichsweise hohen Preises. Zum ersten Mal haben wir dieses Jahr am Vorabend die SEO Nomaden im Hofbräuhaus besucht und dort viele interessante Gespräche geführt. Die Search Marketing Expo selber war erneut sehr gut besucht und bietet im Jahr wahrscheinlich die einzige Möglichkeit internationale Szene Größen wie Rand Fishkin oder Joost de Valk anzutreffen und Insights zu erhalten, die in Europa und Deutschland vielleicht noch gar nicht von Google live integriert sind.

Wir fassen hier nochmal unsere 5 Key Takeaways vom 17.03. und 18.03. kurz und knapp zusammen, für diejenigen, die nicht die komplette Zusammenfassung lesen wollen.

 

Takeaway #1: RankBrain und Machine Learning

Das Thema Machine Learning und Artificial Intelligence war eines der Hauptthemen der Konferenz, nachdem Google im Oktober 2015 offiziell den Launch von RankBrain verkündet hat. Google geht dazu über, insbesondere für bisher nicht bekannte Suchanfragen, ein AI-System namens RankBrain zu integrieren, welches basierend auf dem User Verhalten lernt, welches Ergebnis für welche Suchphrase Relevanz besitzt und welches nicht.

  • RankBrain nimmt bereits den dritten Platz bei den Rankingsignalen ein.
  • Durch das Machine Learning kann das Core Algorithm Team den Rankingalgorithmus selbst nicht mehr vollständig durchschauen.
  • Unabhängig von anderen Rankingsignalen, wie z.B. Links, bewertet der Algorithmus selbstständig anhand des Suchverhaltens welches Ergebnis für welche Sucheingabe relevant ist und lernt darüber hinaus mit jeder Anfrage hinzu.
  • Nicht nur Google setzt auf Machine Learning und Artificial Intelligence: Auch Facebook, Twitter und seit neuestem auch Instagram setzen bei der Ausspielung Ihrer Feeds auf künstliche Intelligenz und maschinellem Lernen.

 

Takeaway #2: Mobile SEO und App Deep Linking

Ein weiteres Thema, welches in diversen Vorträgen aufgegriffen wurde, ist das Thema Mobile SEO und insbesondere App Deep Linking. Hier haben Cindy Krum und Emily Grossman von MobileMoxie aus den USA, aber auch Mariya Moeva als Google Trends Analyst, sehr viel hilfreichen Input gegeben, was man zukünftig beachten sollte um im mobilen Bereich gut aufgestellt zu sein. Nachdem das Mobilegeddon Update im vergangenen Jahr noch nicht den erwarteten Einfluss auf die mobile Suche hatte, wie zunächst erwartet, wird es dieses Jahr verschiedene Änderungen geben, die den mobilen Traffic einer Website sowohl positiv als auch negativ beeinflussen könnte.

  • Voraussichtlich im Mai wird es ein zweites Mobilegeddon Update geben, was die Suche, vor allem im mobilen Bereich, nochmal durcheinander wirbeln dürfte.
  • Für alle Website Betreiber, die gleichzeitig eine App anbieten, wird das Thema App Deep Linking dieses Jahr wichtig werden. Über die Verknüpfung der Webseiten einer Website mit entsprechenden Deep Links der App können sowohl für die App als auch die Seiten Rankingverbesserungen erreicht werden. Gleichzeitig können Benutzer, die die eigene App bereits installiert werden, in den Suchergebnissen auf die App Inhalte aufmerksam gemacht werden, so dass im bestenfall auf der SERP sowohl der App Inhalt als auch das eigentliche Ergebnis der Website selbst angezeigt werden.
  • Google hat mit den Accelerated Mobile Pages (AMP) im vergangenen Jahr ein Pendant zu Facebook Instant Articles gelaunched, welches den langen Ladezeiten im mobilen Bereich entgegen treten soll. Diese sind vor allem für Contentanbieter und Google News Publisher interessant, da durch die gegebenen Voraussetzungen, Inhalte im mobilen Bereich deutlich schneller geladen werden können. AMP befindet sich aber noch in der Entwicklung, so dass gerade die Werbeauslieferung noch nicht sauber integriert ist.
  • Das Google News Carousel wird durch Ergebnisse ersetzt, die Accelerated Mobile Pages anbieten.
  • Ladezeiten sind ein elementarer Faktor in der mobilen Suche. Schnelle Ladezeiten sind ein wichtiger Faktor für gute Rankingergebnisse in der mobilen Suche.

 

Takeaway #3: User Experience und User Intention

User Experience und User Intention sind weitere Aspekte, die in vielen Vorträgen aufgegriffen wurden (auch im Kombination mit RankBrain und Hummingbird). Es reicht heutzutage nicht mehr aus durch technische OnPage- Anpassungen und externe Verlinkungen Optimierungen vorzunehmen. Selbst wenn die jeweilige Seite in diesem Bereich gut optimiert ist, kann eine schlechte User Experience auf der Landing Page dazu führen, dass die jeweiligen Seiten trotzdem keine guten Rankings produzieren. Eine sehr gute User Experience und damit einhergehend positive User Signale sind ein sehr relevanter Faktor.

  • Google rankt keine Seiten, die besonders gut optimiert sind, sondern die Seiten, die die Bedürfnisse des Benutzers am besten befriedigen.
  • Die Seiten sollten nicht auf Keywords optimiert werden, sondern auf die User Intention, die mit einer Suchanfrage verbunden ist.
  • User Signale spielen hier eine elementare Rolle. Google betrachtet die Absprungrate, die Verweildauer und die Seiten pro Besuch, die nach einem Klick auf ein Suchergebnis generiert werden.
  • Die Klickrate ist ein elementarer Faktor, der einen unmittelbaren Einfluss auf die Positionierung eines Suchergebnis nimmt (siehe Test der Klickrate „Marcus Tandler SEO“). Man sollte daher das Snippet nicht mehr ausschließlich auf Keywords optimieren, sondern die Snippets so gestalten, dass sie häufig geklickt werden. Die dahinterliegende Landing Page ist letztlich aber ebenso wichtig.
  • User Signale können nicht langfristig „gefaked“ werden. Eine gute User Experience der eigenen Website führt zu positiven User Signalen und damit letztlich zu besseren Suchmaschinenrankings.

 

Takeaway #4: Mehr Content vs. Top Content

In den vergangenen Jahren gab es unter Webmastern und Suchmaschinenoptimierern häufig noch das Credo „Je mehr Content ich habe, desto besser“, da jede Seite potenziell zusätzliche Longtails adressieren und damit zusätzlichen Traffic generieren kann. Dies hat sich in den letzten Jahren signifikant verändert. Man sollte nicht mehr unablässig zusätzlichen Content produzieren, der dem User keinen wirklichen Mehrwert bieten, sondern sich eher auf absoluten „Killer“-Content fokussieren, der dem User einen wirklichen Mehrwert bietet und ihn bei der Problemlösung unterstützt. Rand spricht hier von „10x Content“ – es sollte Content erstellt werden, der wirklich der beste Inhalt im Netz zu einer bestimmten Suchintention darstellt. Dann kommt Google gar nicht umhin diesen gut zu ranken.

  • Zu viel Content, der dem User keinen Mehrwert bietet, kann das Ranking negativ beeinflussen.
  • Man sollte nicht zu jeder Longtail-Anfrage eigene Seiten produzieren, sondern holistischen Content anbieten, der eine Suchintention gänzlich beantwortet (das kennen wir bereits aus dem Vortrag von Marcus Tober aus dem letzten Jahr).
  • Nicht nur Duplicate Content und Near Duplicate Content, sondern auch mehrere Seiten auf einer Domain, die die gleiche Suchintention bedienen, können zu schlechteren Rankings führen. Zum Beispiel durch Mehrfach Rankings zu einem Begriff. Die tatsächlich relevante Seite, die vielleicht ein gutes Ranking besitzt, kann dadurch nach unten „gezogen“ werden.
  • Wirklich gute Ratgeberinhalte machen auch im E-Commerce Bereich Sinn. Hier sollte dem Benutzer aber wirklich bei der Problemlösung geholfen und seine möglichen Fragen beantwortet. Einfache SEO-Texte machen keinen Sinn mehr. Der User sollte hier nicht verwirrt werden und immer näher zum Produkt geführt werden.

 

Takeaway #5: Crawl- und Index-Budget effizient nutzen

Ein weiteres wichtiges Thema, welches auch bereits auf der SEO Campixx 2016 mehrfach aufgegriffen wurde, und zum Teil mit Takeaway #4 korrespondiert, ist die Frage, wie ich mein Crawl- und Index-Budget korrekt verwalte und nutze. In den jeweiligen Vorträgen wurde immer wieder darauf eingegangen, dass das „Zumüllen“ mit unnötigen Seiten auch negativen Einfluss auf das Crawling- und Index-Budget nehmen kann und das Panda Update triggern kann. Das sind aber nicht die einzigen Punkte, die hier eine Rolle spielen. Auch im Bereich technischen SEO gibt es diverse Fallstricke, die dazu führen können, dass Google unnötig viele Seiten crawlt oder indexiert. Sowohl Stefan Fischerländer als auch Bastian Grimm und Philipp Klöckner, haben hier weitere Faktoren angeführt, die es zu berücksichtigen gilt.

  • Google verteilt je nach Autorität der Seite ein gewisses Crawling Budget pro Domain, welches zum Teil mit dem PageRank korreliert.
  • Filterungen und Paginierungen müssen korrekt behandelt werden, so dass Google möglichst wenig Index-Budget verschwendet und bestenfalls auch Crawling-Budget einsparen kann.
  • Der PageSpeed ist ein wichtiger Faktor für das Crawling: Je schneller meine Seiten laden, desto mehr Seiten kann der Google Bot bei einem Besuch crawlen.
  • Der Crawler muss über Robots-Meta-Tag und robots.txt korrekt gesteuert werden. Ein Robots-Meta-Tag mit „noindex“ sorgt nicht dafür, dass die jeweilige Seite nicht gecrawlt wird (keine Einsparung beim Crawl-Budget), sondern nur das die Seite nicht indexiert wird (Einsparung beim Index-Budget). Wird ein Verzeichnis über robots.txt gesperrt, wird sowohl Index, als auch Crawl-Budget gespart.
  • XML-Sitemaps sollten wirklich nur 200-Seiten enthalten, die indexierbar sind. Hier sollten keine weitergeleiteten URLs, Canonical-URLs, über robots.txt ausgesperrte Verzeichnisse etc. aufgelistet werden.
  • Canonical-Tags sind nur ein Hinweis für Google, aber keine direkte Anweisung, die Seite nicht zu indexieren. Wenn Google die URL trotzdem für relevant hält, kann sie im Index landen.

 

Fazit

Unsere 5 Key Takeaways behandeln vor allem die Themen, die mehrfach, in den von uns besuchten Vorträgen, aufgetreten sind. Subjektiv waren dies die jeweiligen Hauptthemen der SMX München 2016. Es gab natürlich noch diverse weitere Vorträge, die hier nicht explizit aufgeführt wurden. Dazu gehören zum Beispiel die Bereiche Content Marketing, Linkbuilding und OffPage Audits oder der korrekte Umgang mit dem hreflang-Tag im Bereich der internationalen Ausrichtung einer Website.

Die SMX war insgesamt eine Top-Veranstaltung. Wir sind gespannt auf das nächste Jahr! Abschließend freuen wir uns über Eure Kommentare und Anmerkungen und stehen für Fragen gerne zur Verfügung.

 

Weitere Recaps

Comments
pingbacks / trackbacks