SEO Campixx 2016 Recap – Spiel, Spaß und Spannung in Berlin

Kategorie: Veranstaltungen

Die SEO Campixx fand 2016 erneut am Müggelsee in Berlin statt. Dieses Jahr hatte ich zum ersten Mal die Chance dabei zu sein und mit verschiedenen Kollegen aus der Branche zum Thema Suchmaschinenoptimierung zu sprechen. Die SEO Campixx ist keine gewöhnliche Konferenz, sondern eher eine Mischung aus Barcamp und Konferenz.

[row]
[span4]2[/span4]
[span4]1[/span4]
[span4]3[/span4]
[/row]

Im Müggelsee Hotel treffen sich über 500 Suchmaschinenoptimierer aus Deutschland um über aktuelle Themen aus dem SEO Bereich sowie verschiedenen angrenzenden Themen wie z.B. dem Content Marketing zu diskutieren. Die Campixx ist so aufgebaut, dass neben den Vorträgen, die über den Tag verteilt sind, auch diverse Events vor und vor allem nach den Workshops stattfinden.
In den folgenden Zeilen bekommt ihr einen Überblick über die von mir besuchten Themen.

Inhaltsverzeichnis (*klick*):

SEO Campixx 2016 – Tag 1

1. Crawling, Indexierung und interne Verlinkung von großen Webseiten – Johannes Giesche

4

Im ersten Workshop des Samstags hat Johannes Giesche das Zusammenspiel aus Crawling, Indexierung und interner Verlinkung bei großen Webseiten vorgestellt. Für ihn fangen große Webseiten demnach bereits bei ca. 10.000 Seiten an, wobei er in seinem späteren Praxisbeispiel auf ein Projekt mit ca. 14 Millionen Seiten (zum damaligen Status) referenzierte. Er hat seinen Beitrag in 4 Themen gegliedert:

  1. Crawling
  2. Indexierung
  3. Interne Verlinkung
  4. Praxisbeispiel

Als erstes wurde heraus gestellt, dass diese 3 Bereiche viel zu häufig singulär betrachtet werden, obwohl sie doch stark zusammenhängen. So haben Entscheidungen im Bereich des Crawlings direkten Einfluss auf spätere Maßnahmen im Bereich der Indexierung oder der internen Verlinkung.

Bei der Analyse des Crawl-Verhaltens bei großen Websites geht es im ersten Step darum, saubere Analysen zu fahren, die einem ermöglichen die tatsächlichen Bot-Zugriffe auf den Webserver nachzuvollziehen. Hierzu wurden einige Methoden im Bereich der Logfile-Analyse vorgestellt. Auf Grundlage der Logfiles werden die Zugriffe des Googlebots betrachtet und ermittelt welche Seiten und Seitenbereiche am häufigsten besucht werden, welche Status Codes ausgegeben werden etc. Sind gegebenenfalls Seiten dabei, die überhaupt nicht relevant sind? Werden viele 404-Seiten aufgerufen, die z.B. noch intern oder extern verlinkt werden? Sind ganze Seitenbereiche dabei, die für die SEO Strategie uninteressant sind, aber dennoch häufig gecrawlt werden?

Im zweiten Schritt sollte man die Indexierung verbessern und das Indexierungsverhalten steuern. Habe ich als Ergebnisse der Analyse des Crawl-Verhaltens festgestellt, dass Seitenbereiche zukünftig nicht mehr gecrawlt werden sollen, dann sollte nicht direkt der Crawler für dieses Verzeichnis gesperrt werden. Wenn sich die Seiten noch im Index von Google befinden, sollte ich diese zunächst mit einem noindex-Tag versehen, so dass Google sie aus dem Index entfernt. Erst nachdem alle Seiten aus dem Index entfernt sind kann ich anschließend den Crawler für dieses Verzeichnis sperren.

Im dritten Schritt kümmert man sich um die interne Verlinkung und richtet diese auf die getroffenen Entscheidungen im Bereich Crawling und Indexierung aus. Hier empfiehlt Johannes den Screaming Frog via Cloud laufen zu lassen, um wirklich sehr große Websites tatsächlich effizient crawlen zu können. Über den Screaming Frog bzw. eigene Tools lassen sich die internen Links auf die nicht mehr zu indexierenden Seiten und Verzeichnisse feststellen, die dann abgeändert werden müssten, sofern dieser interne Link auch für den User keine Relevanz mehr besitzt.

Im abschließenden Praxisbeispiel führte Johannes die zuvor aufgezeigten Analysemethoden anhand eines Kundenprojektes mit ca. 14 Millionen URLs im Index vor, welches um mehrere Millionen URLs reduziert wurde.

2. SEO-Leistungen strukturiert anbieten – SEO als Geschäftsmodell – Stefan Godulla

5

Im nächsten Workshop hat Stefan Godulla von CTS Media vorgestellt, wie er in seiner Agentur, die zuvor primär auf Web Development ausgelegt war, SEO als Geschäftsmodell integriert hat. Es ging ihm dabei insbesondere darum die Abläufe von der Anbahnung eines potenziellen Neukunden über den Kickoff Termin bis hin zur laufenden Projektbetreuung sauber zu strukturieren und dem Kunden mögliche Kosten auch transparent zu kommunizieren. SEO ist kein Anbauteil das man einmalig hinzubucht, sondern die Analysen und Beratungsgespräche sind ebenso Arbeitsaufwände die in einer Agentur entstehen können wie die Entwicklung und das Webdesign selber. Dies muss dem Kunden auch genauso kommuniziert werden.

Stefan hat dabei diverse Abläufe vorgestellt, wie er in seiner Agentur Suchmaschinenoptimierung mit in die Projektarbeit und Entwicklung integriert, so dass ein Projekt sowohl für den Kunden als auch für die Agentur „Spaß“ macht. Denn letztlich bringt es dem Kunden nichts wenn er eine tolle neue Website hat, die keiner findet und andererseits bringt es der Agentur nichts, wenn sie 5 Projekttage zusätzlich in die Suchmaschinenoptimierung der Site investiert, die nicht abgerechnet werden.

Abschließend hat er noch verschiedene Tools vorgestellt um die Prozesse in der Projektarbeit zu optimieren. Von Toolanbietern für die Aufgabenverteilung über die Zeiterfassung und teilautomatisierte Angebotserstellung bis hin zu ToDo-Listen waren diverse Tipps dabei. Danke dafür!

3. Content Kannibalisierung & interne Relevanzprobleme – Sören Bendig

6

Sören hat in seinem Workshop ein brandaktuelles Thema angesprochen, welches häufig von Webmastern nicht näher betrachtet wird oder als nicht relevant genug abgetan wird. Für verschiedene Suchanfragen konkurriert man nicht nur mit anderen Websites und Konkurrenten, sondern kann je nach Szenario auch mit eigenen Inhalten um die Platzierungen auf der ersten Ergebnisseite konkurrieren. Darüber hinaus kommt hinzu das eigene Inhalte, die eigentlich gute Ergebnisse generieren, das tatsächlich relevante Ergebnisse auch negativ beeinflussen können.

Sören hat hier mit diversen Beispielen von verschiedensten großen Brands aufgezeigt, wie eigene Inhalte in Konkurrenz zueinander stehen können. Dies kann sowohl für Verzeichnisse als auch Subdomains gelten, die unterschiedliche Themenkanäle ansprechen. Adressiere ich auf meiner Website also z.B. sowohl transaktionsbasierte Anfragen (z.B. über Kategorieseiten in einem Online Shop) als auch informationsbasierte Suchanfragen (z.B. in Form eines Ratgebers) und habe vielleicht noch einen Blog, der auf einer Subdomain liegt, können die Seiten in den Verzeichnissen und auf den Subdomains in Konkurrenz zueinander treten und sich gegenseitig kannibalisieren.

Beispiel:
Website A hat eine Produktkategorie zum Thema Nike Schuhe, eine Markenseite zum Thema Nike, diverse Produktdetailseiten mit Nike Schuhen und darüber hinaus noch einen Ratgeber, indem diverse Themen zu Nike Schuhen abgehandelt werden (z.B. Nike Schuhe richtig pflegen, wie fallen Nike Schuhe aus) und vielleicht noch einen Blog, in dem diverse Influencer in Form von Gastbeiträgen publizieren können. Alle diese Seiten können zueinander in Konkurrenz stehen, wenn Google nicht klar ist, welche der Seiten jetzt tatsächlich für welchen Bereich Relevanz besitzt.

Dies ist nur ein typisches Problem, das auftreten kann. Sören hat diverse Szenarien gezeigt. Nachdem er verschiedenste Problemstellungen aufgezeigt hat, ist er anschließend zu den möglichen Problemlösungen übergegangen. In jedem Fall muss man zuvor analysieren wie man den User über organische Suchergebnisse auf die Seite lenken möchte. Es gibt diverse Fälle in denen auch 2 Suchergebnisse Sinn machen können. Man nimmt z.B. Platz 2 und 3 für eine Suchanfrage ein und generiert darüber mehr Traffic als man mit nur einem Ergebnis auf Platz 1 generieren würde.

Folgendes Vorgehen bzw. Lösungswege sind denkbar:

  • Rankingverläufe für wichtige Keywords checken (möglichst auf täglicher Basis)
  • Auffälligkeiten klassifizieren
  • Umstellungen zunächst an Einzelfällen testen
  • Bei entsprechenden Pattern gegebenenfalls für die gesamte Website ausrollen
  • Snippets klar definieren (z.B. Transaktion vs. Informationsbasierte Anfrage). Damit können dann evtl. beide Suchergebnisse behalten werden.
  • Inhalte gegebenenfalls zusammenlegen oder aus dem Index nehmen (Testen!)
  • Über klare interne und externe Verlinkungen sollte Relevanz und Autorität für die jeweiligen Seiten geschaffen werden. Ranke ich z.B. mit meinem Ratgeber zu transaktionsbasierten Anfragen, obwohl ich auch Kategorieseiten mit Produkten besitze, dann erkennt Google die Relevanz falsch. Wenn jemand nach Schuhe kaufen sucht möchte ich denjenigen ja nicht auf meinen Ratgeber leiten, sondern – natürlich – auf meine Kategorieseite um ihn schneller zu seinem Ziel zu bringen (Schuhe kaufen). Hier helfen interne und externe Verlinkungen mit klaren Linktexten (in diesem Fall „Schuhe kaufen“) auf die relevante Shop Kategorie.

Alles in allem ein sehr guter Vortrag. Die Inhalte sollte man in jedem Fall auf dem Schirm haben. Lieber wenige gute Inhalte produzieren für Suchphrasen mit denen man noch nicht rankt und bestehende Inhalte weiter ausbauen und verbessern als ohne Ende Inhalte zu produzieren, die auf der Website schon mal in gleicher oder ähnlicher Form angeboten werden. Gleichzeitig sollte man ganz genau analysieren für welche Inhalte man wie rankt und ob „Doppelrankings“ tatsächlich gewünscht sind oder ob man durch die aufgezeigten Lösungswege gegebenenfalls die Rankings für einen Beitrag verbessern kann und damit letztlich mehr Traffic für die eigene Website generieren kann.

4. Hands on Workshop – Marcus Tandler

7

Zur Abwechslung mal kein Slidegewitter, sondern eine praxisnahe Betrachtung von technischen und inhaltlichen Problemen von Websites anhand einer Site Clinic. Hierzu konnten zuvor Websites via Twitter eingereicht werden, wovon letztlich 2 Domains detaillierter betrachtet wurden.
In der ersten Site Clinic ging es um eine Website inkl. angeschlossener App zur Berechnung der Kalorien von verschiedenen Lebensmitteln. Die App befindet sich unter anderem in den Top 10 im App Store für das Themenfeld „Ernährung und Gesundheit“ in Deutschland. Darüber hinaus ist die Site bereits in diversen Sprachen verfügbar.
Mit den Tools Similarweb, Sistrix, Searchmetrics und OnPage.org wurden verschiedenen Aspekte der Website betrachtet, wobei die Site technisch bereits sehr gut optimiert gewesen ist und lediglich kleinere Mängel aufwies. Selbst bei den href-Lang Tags, die selten vollständig korrekt umgesetzt werden, gab es keine signifikanten Probleme.

Folgende 3 Themen wurden dennoch näher besprochen:

1. HTTPS Variante

Die Site ist bereits auf HTTPS umgestellt. Die Frage war: „Warum wurde das überhaupt gemacht?“. HTTPS ist kein direkter Rankingfaktor und die Site hat keine Formulare mit sensiblen Daten, von daher wäre eine Umstellung nicht unbedingt notwendig gewesen. Dennoch macht HTTPS auch hier Sinn, denn die User schauen bei der Angabe ihrer Daten möglicherweise auch auf das Zertifikat. Positive User Signale sind für Google sicherlich ein Zeichen dafür, dass die Seite entsprechend relevant für eine Suchphrase ist.

2. App-Indexing

Das Thema App-Indexing wurde kurz angesprochen. Dies wird bisher nicht betrieben, obwohl es Sinn machen würde. So können Benutzer, die die App bereits installiert haben, bei der Google Suche nach bestimmten „Kalorien-Themen“ auf die App erneut aufmerksam gemacht werden und direkt darauf weitergeleitet werden.

3. Potenzielle Panda Probleme in der Zukunft

Letztlich wurde bei der OnPage-Analyse durch OnPage.org noch sichtbar, dass viele Seiten existieren, die von der Startseite extrem lange Klickpfade besitzen. Teilweise waren das über 7 Klicks bis zu einer Seite. Dies ist zunächst für Google erst einmal ein Zeichen dafür, dass diese Seiten weniger Relevanz besitzen. Dabei wurde relativ schnell offensichtlich, dass bestimmte Themen nicht umfassend abgehandelt wurden, sondern für diverse Suchanfragen im Longtail jeweils eigene Seiten mit ähnlichen Inhalten angeboten wurden. Das sorgt zum Teil für Near Duplicate Content, da die jeweiligen Seiten kaum signifikante Unterschiede besaßen.
Empfehlung von Marcus:

Seitenzugriffe analysieren: Organische Zugriffe prüfen, Dwell-Time checken, Social Signals prüfen. Alles was an der Stelle zu schlecht abschneidet kann (wahrscheinlich) entfernt werden. „Lieber mit der Stahlbürste durchgehen als am Ende im Panda zu landen.“

Durch die angesprochenen Probleme gibt es zumindest das Potenzial, dass hier an irgendeinem Zeitpunkt der Panda kommt und die Site Probleme bekommt. Da kann man besser vorbeugen anstatt 3 Monate Umsatzausfälle zu haben und ordentlich Aufwand betreiben zu müssen um aus der Geschichte wieder raus zu kommen.

Quintessenz: Man sollte sich bei der Erstellung von Seiten immer 3 Fragen stellen:

  1. Brauche ich die Seite für den User?
  2. Brauche ich die Seite für den Index?
  3. Soll die Seite ranken?

Die zweite Website besaß da bereits deutlich mehr Optimierungspotenzial. Diverse Algorithmus-Updates haben der Website massive Verluste bei der Sichtbarkeit (und wahrscheinlich auch beim Traffic) eingebracht. Bei dieser Site Clinic ging es um eine Website aus dem Gesundheits-Sektor, wobei dieser Seitenbetreiber ein Ärzte/Medikamentenverzeichnis anbietet, indem auch User-Generated-Content eine Rolle spielt. Folgende Mängel konnten erkannt werden:

  • Die Website besitzt viel zu viele Seiten im Index, die alle Thin-Content darstellen oder dem User absolut 0 Mehrwert bieten. Hier wird eine detaillierte Analyse der User Daten über Logfiles und Google Analytics notwendig werden um die gesamte Site zu reduzieren. Auf den ersten Blick können 80% der Seiten entfernt werden. Mindestens das Medikamenten Verzeichnis hat den Panda getriggert und sollte bereinigt oder ganz entfernt werden.
  • Die Weiterleitungen sind nicht sauber. Die fehlerhaften Weiterleitungen verursachen dann auch wieder Latency Probleme und verbrauchen unnötig Crawling-Budget.
  • Die URLs sind nicht eindeutig. Es werden keine Trailing-Slashes oder Groß-/Kleinschreibung der URLs behandelt.
  • Darüber hinaus sind die internen nofollow Links auffällig. Das erinnert sehr stark ans PageRank Sculpting. Die Website besitzt sitewide nofollow Links aus dem Footer, so dass mindestens 1,5% des Linkjuice von Seite zu Seite verpuffen. Die Site „blutet“ aus.
  • Gerade die wichtigen Trafficbringer – die „Star“-Seiten – sollten entsprechende Canonical-Tags besitzen um z.B. Scrapping zu beschränken.

Die Website besitzt letztlich noch diverse andere Optimierungspotenziale, die in der Kürze der Zeit leider nicht mehr detailliert betrachtet werden konnten.
Trotz des undefinierten Themas war der Vortrag bzw. die Site Clinic alles in allem auf jeden Fall sehr interessant. Leider wurde nicht ganz klar wie Marcus jetzt tatsächlich an eine Site Clinic ran geht, da der Workshop sehr interaktiv war und dadurch etwas unstrukturiert wirkte. Unterhaltsam war es in jedem Fall.

SEO Campixx 2016 – Tag 2

1. Wissensmanagement und Workflow-Optimierung – Alle zu SEOs machen – Olaf Seydel, Jana Lavrov, Björn Wagner

8

Im ersten Workshop des Sonntags haben Olaf Seydel, Jana Lavrov und Björn Wagner über ihre Arbeit bei zeit.de berichtet und wie sie Workflows und Wissensmanagement so strukturiert haben, dass sowohl Mitarbeiter des Verlages als auch die Redaktion und die Technik eine gewisse „SEO-Denke“ an den Tag legen. Die drei arbeiten im Bereich Audience Management von Zeit Online und haben in den letzten Jahren die Suchmaschinenoptimierung auch in der Online Redaktion etabliert.

Bereits beim Schreiben der Nachrichten und Artikel sollten grundlegende SEO Regeln beachtet werden. Bei zeit.de wurde dazu ein Workflow eingeführt, bei dem SEO bereits bei der Recherche ansetzt und immer wieder bis zur tatsächlichen Veröffentlichung angefragt werden kann. Über Slack hat jeder Redakteur die Möglichkeit SEO-Fragen während des Schreibens direkt an das Team zu stellen. Gleichzeitig wurde ein Mitarbeiter fest in die Redaktion integriert und ein fester Arbeitsplatz im Newsdesk eingerichtet, so dass Rückfragen auch direkt persönlich gestellt werden können. Über diverse spezifische Workshops und Schulungen bekommen die Mitarbeiter (ob Redakteure oder die Technik) immer tiefer gehende Einblicke in die Suchmaschinenoptimierung.

Um die Mitarbeiter wirklich vom Sinn der Suchmaschinenoptimierung zu überzeugen wurden drei zentrale Aspekte vorgestellt:

1. Begeistern
  • Ziele von Chefs und Kollegen verstehen
  • Potenzial aufzeigen
  • Tests durchführen
  • Feedback geben
2. Beschreiben
  • Prinzipien und Guidelines festhalten – gepflegt und leicht konsumierbar
  • Vereinbarungen festhalten und einfordern
3. Beibringen
  • Maßgeschneiderte Workshops
  • Permanente Ansprechpartner
  • Externe Expertenmeinungen

Letztlich wurde noch ein Ausblick gegeben in welchen Bereichen noch Verbesserungs- und Ausbaubedarf besteht. Es soll z.B. noch besser bewertet werden können, welche neuen SEO-Maßnahmen, welche Effekte auf Traffic und Engagement besitzen. Ferner soll der Fokus zukünftig nicht allein auf der Trafficzufuhr, sondern auch auf der Verbesserung des Engagements (Seitenaufrufen, Absprungrate, Verweildauer etc.) liegen. Zusätzlich sollen Vertiefungsworkshops angeboten werden um das SEO Know in Redaktion und Technik noch weiter auszubauen. Den Kollegen muss bewusst werden, dass SEO kein Sprint ist, sondern ein Marathon. SEO ist keine einmalige Maßnahme, sondern muss fest in die tägliche Arbeit integriert werden.

2. Axel Springer Inhouse SEO Panel – Jörg Schober, Alexander Engel, Matthias Nientiedt, Florian Elbers, Celia Brauer

In der nächsten Session wurden die Themen Relaunch, Foren und User-Generated-Content, HTTPs-Umstellung und Page Layout Update anhand von verschiedenen Projekten von Axel Springer vorgestellt. Die 5 Speaker haben hierzu verschiedene Herausforderungen, Hürden und Fallstricke bei den jeweiligen Maßnahmen präsentiert.

2.1. Jörg Schober – Gofeminin und Onmeda: Forenverwaltung und UGC

9

Jörg hat in seinem Beitrag am Beispiel von gofeminin aufgezeigt, welche Probleme Foren mit User Generated Content mit dem Panda Update bekommen können. Er hat hier eine Vorgehensweise vorgestellt wie mit dem User-Generated-Content umgegangen werden kann, der in vielen Fällen Thin Content darstellt und daher den Panda triggern kann. In jedem Fall wird die Seitenzahl deutich reduziert werden müssen. Ist es wirklich notwendig 50 Seiten Paginierung anzubieten, wenn spätestens ab Seite 3 bereits kaum User weiterlesen und keinerlei Zugriffe produzieren? Die Indexierung und das Crawl-Verhalten müssen zukünftig sauber kontrolliert werden.
Für die Behandlung der Threads hat Jörg folgendes Vorgehen für Indexierung/Crawling vorgeschlagen:

Seitentyp / ThreadtypRobots-Meta-TagPopuläre BeiträgeNeuste BeiträgeXML-Sitemap
Neue Threadsindex, followNEINJAJA
Aktive Threadsindex, followJANEINJA
Inaktive Threadsnoindex, followNEINNEINNEIN

2.2. Alexander Engel – Casamundo: Relaunch bei casamundo.de

10

Alexander hat in seinem Beitrag vorgestellt welche Probleme bei einem Relaunch auftreten können und wann es an der Zeit ist die Site gegebenenfalls neu aufzusetzen. Ziel des Relaunches bei casamundo war es die User Signals zu verbessern (Bounce Rate senken, Verweildauer erhöhen) und die Conversion-Rate zu steigern.

2.3. Matthias Nientiedt – Stepstone: HTTPS Umstellung

11

Bei der HTTPS Umstellung von Stepstone gab es so einige Herausforderungen und Probleme. Matthias hat in seiner Session vorgestellt, welche Erfahrungen er mit der HTTPS Umstellung gemacht hat. Stepstone hat bei der Umstellung auf HTTPS sowohl für die Startseite als auch die SEO Landing Pages Verluste bei Sichtbarkeit und Traffic erlitten. Folgende Fallstricke konnten identifiziert werden:

  • Sitemaps hatten noch HTTP-Links drin.
  • Canonical-Tags auf HTTPS Variante von der http-Variante reichen nicht aus.
  • Es müssen 301-Weiterleitungen von HTTPS auf HTTP eingerichtet werden.
  • Eigene HTTPS Property in der Google Search Console anlegen. Parameter-Handling kann hier nicht exportiert werden, so dass in der neuen Property alle Parameter neu eingerichtet werden mussten.

Matthias‘ Learning aus der HTTPS-Umstellung: Erst der Redirect auf HTTPS sorgt für die tatsächliche Umstellung. Alleine mit dem Canonical-Tag hat Stepstone deutlich an Traffic eingebüßt. Ferner sind Backlinks immer noch sehr, sehr wichtig. Dadurch dass alle externen Verlinkungen von stepstone.de auf die http-Variante verlinken und diese per 301 weitergeleitet wird geht PageRank und Linkjuice verloren. Die Startseite hat sich davon nach wie vor nicht vollständig erholt. Es werden alle Backlinkgeber angeschrieben um darum gebeten direkt auf die HTTPS Variante zu linken.

2.4. Florian Elbers / Celia Brauer – Auto Bild / Computer Bild: Page Layout Update

12

Florian und Celia sind der Frage nachgegangen, wie viel Werbung negativen Einfluss auf eine Website und Ihre Rankings haben kann. Welchen Einfluss hat das Page Layout Update also wirklich gehabt? Durch eine Analyse von Auto Bild bzw. Computer Bild und den jeweiligen Konkurrenten wurde aufgezeigt, wie viel Prozent des direkt sichtbaren Bereichs durch Werbung abgedeckt wird. Denn genau das soll das Page Layout Update adressieren – zu viel Werbung im direkt sichtbaren Bereich.

Zunächst stellen sich 2 Fragen:

  • Wie ist der direkt sichtbare Bereich definiert?
  • Wie hoch muss der Anteil sein, damit tatsächlich negative Einflüsse zu erwarten sind?

Die erste Frage wurde direkt an John Müller von Google geschickt. Die Antwort war in etwa folgende: Der direkt sichtbare Bereich ist derjenige Bereich, den der Standard-User (der durchschnittliche User) der Website auf seinen üblichen Geräten (Auflösung, Endgerät, Bildschirm) sieht. Eine sehr vage Aussage – der tatsächlich durchschnittliche User lässt sich nicht exakt definieren. Es wird über diverse Auflösungen und Endgeräte (zumindest auf Auto Bild bzw. Computer Bild) auf die Websites zugegriffen.

Auch die zweite Frage lässt sich nicht klar beantworten. Es wurde das prozentuale Verhältnis von Werbung für einen typischen User auf Auto Bild bzw. Computer Bild gegenübergestellt. Der Anteil der Werbung geht dabei bis zu 30% des direkt sichtbaren Bereichs in die Höhe, wobei teilweise kein Content mehr sichtbar war, sondern nur Navigation, Logo, Header etc. und die Werbung selber. Dennoch war zumindest diese Seite nicht durch das Page Layout Update direkt betroffen.

Folgendes Learning konnte durch die Analyse gezogen werden: Es ist weder klar definiert was für das Page Layout Update der direkt sichtbare Bereich ist noch wie hoch der Anteil der Werbung sein müsste. Eines wird durch die Analyse aber erkennbar. Zu viel Werbung (insbesondere wenn überhaupt kein Content mehr sichtbar ist) sorgt für negative User Signale, was wiederum Einfluss auf das Ranking haben kann. Wenn jemand auf ein organisches Ergebnis oder einen Beitrag in der Google News Box über die Vorwahlen in den USA klickt, aber auf der nächsten Seite keine Inhalte vorfindet, sondern nur das Logo (z.B. einer Zeitung), die Navigation und diverse Werbebanner aber keine Headline und keine Teaser, dann wird er mit diesem Suchergebnis sicherlich nicht zufrieden sein und möglicherweise auf die SERP zurückspringen. Dies kann für Google wiederum ein Signal dafür sein, dass das Ergebnis möglicherweise nicht die Suchintention des Users erfüllt.

3. Von der Graphentheorie zur internen Verlinkungsoptimierung – Sebastian Erlhofer

13

Sebastian ist in seinem Vortrag auf die Graphentheorie eingegangen, die Informatiker bereits aus dem Studium kennen werden. Er hat anhand von Beispielen aufgezeigt welche Konstrukte der Graphentheorie auch bei der internen Verlinkung berücksichtigt werden und wie diese in den Rankingalgorithmus einfließen.

Als kurze Grundlage: Ein Netzwerk besteht u.a. aus Knoten und Kanten, wobei diese gerichtet und ungerichtet sein können. Ferner können Nachbarknoten und Pfade existieren. Pfade sind Wege durch das Netzwerk. Dies lässt sich über Graphen visualisieren, wobei Google dazu Adjazenzmatrizen nutzt. Im Internet sind Knoten Websites und Kanten Verlinkungen zwischen den Websites.

Nach der Einführung in die Graphentheorie hat er Zentralitäten vorgestellt, die für jeden Knoten berechnet werden können. Wie wichtig ist zum Beispiel ein Knoten für das Netzwerk?

  1. Indegree-Zentralität: Die Wichtigkeit eines Knotens wird über die Anzahl der eingehenden Kanten bestimmt.
  2. Outdegree-Zentralität: Die Wichtigkeit eines Knotens wird über die Anzahl der ausgehenden Kanten bestimmt.
  3. Eigenvektor-Zentralität: Ein Knoten ist umso wichtiger, je wichtiger seine Nachbarknoten sind.
  4. Betweenness-Zentralität: Der Betweenness-Wert eines Knotens ist umso höher, je häufiger eher Bestandteil vieler kürzester Wege ist und die jeweiligen Paare wenige andere kürzeste Wege haben, auf der der Knoten nicht enthalten ist.

Im nächsten Schritt hat er anhand des Tools Gephi aufgezeigt wie Daten aus dem Screaming Frog genutzt werden können um die interne Verlinkung einer Website besser zu visualisieren und anhand von Daten Ableitungen für die Optimierung treffen zu können. Letzteres hat er anhand eines fiktiven Tests aufgezeigt, an dem ersichtlich wird, dass Google möglicherweise nicht die Seite mit dem höchsten PageRank vorne rankt, sondern eher die Seite mit der höchsten Betweeness-Zentralität.

4. Ich habe viel gesehen und so optimiert man seine Seitenstruktur richtig – Tobias Fox

14

Nach einer kurzen Pause ging es anschließend weiter mit einem Vortag von Tobias Fox zum Thema Seitenstruktur. Hier wurde aufgezeigt wie man eine Seitenstruktur analysiert, optimiert und welche Tools und Analysemethoden man dazu nutzen kann.
Folgende Hinweise hat Tobias in seinem Vortrag gegeben:

  • Man sollte sich einen Überblick über die Seitentypen und deren KPIs verschaffen.
  • Um valide Entscheidungen treffen zu können sollte man vollständige Crawls fahren.
  • Crawling Tools haben Limits (z.B. bei der Anzahl der crawlbaren Seiten). Um die Rechenkapazitäten besser ausnutzen zu können (wenn die Desktop Installation an die Grenzen kommt) kann man z.B. den Screaming Frog in der Cloud laufen lassen.
  • Sitemaps bauen hat nichts mit interner Verlinkung zu tun.

Ein Beispiel für eine gute interne Verlinkung ist winfuture.de. Hier werden viele Bausteine implementiert, die für eine interne Verlinkung sorgen, die weit über Sitemaps hinausgehen. Dazu gehören:

  • Thematisch passende Breadcrumbs
  • Themen-Teaser (Aktuelle Themen, Populäre Themen, Neuste Themen)
  • Content werden mit Videos und Bilder angereichert
  • Unter den Artikeln werden thematisch ähnliche Artikel angeteasert
  • In der Sidebar werden weitere Themenkomplexe gespielt

Im letzten Teil der Präsentation ist er darauf eingegangen, wie er bei der Optimierung der Seitenstruktur und internen Verlinkung vorgeht. Wichtigster Apell: „Baut nutzbare Strukturen!“:

  • Unnötige Seiten reduzieren
  • Unnötige Seiten ggf. vollständig entfernen um das Crawl-Budget zu schonen
  • Seiten entfernen, die keinen Inhalt erschließen
  • Stellt euch die Frage: Brauche ich eine Paginierung mit 50+ Seiten?

Die Änderungen bzw. die Ergebnisse der Veränderungen müssen nicht live getestet werden, sondern können mittels Tools simuliert werden. Dadurch kann z.B. eingesehen werden, wie sich der PageRank der wichtigen Seiten verändert wenn bestimmte Seiten entfernt werden, da sie als unnötig deklariert wurden.

5. Ein Workflow für das Content Marketing – Andreas Schülke

15

Am späten Sonntagnachmittag habe ich dann noch den Vortrag von Andreas Schülke zum Thema „Ein Workflow für das Content Marketing“ besucht. Der interaktive Workshop begann damit, welche Herausforderungen beim Content Marketing auftreten können. Dazu haben sich die Teilnehmer ausgetauscht. Folgende Herausforderungen wurden immer wieder genannt:

  • Kunden von Content Marketing überzeugen
  • Die Content Produktion und die Abstimmung mit dem Kunden. Gerade bei schwierigen und spezifischen Themen ist der Kunde viel detaillierter in der Thematik als die betreuende Agentur.
  • Die verschiedenen Stakeholder unter einen Hut zu bringen: PR-Abteilung, Marketing Abteilung, SEO Team oder Agentur, Online Marketing, Geschäftsführung. Die Zuständigkeiten und Verantwortlichkeiten sind häufig nicht klar abgegrenzt. Die Texterstellung erfolgt zum Teil in mehreren Abteilungen ohne Abstimmung. Es muss zuvor abgestimmt werden wer für was verantwortlich ist und wer welche Aufgaben übernimmt.

Anschließend wurde besprochen welche Schritte im Content Marketing anzutreffen sind:

  1. Zieldefinition
  2. Themenrecherche
  3. Erstellen
  4. Seeding
  5. Evaluation

Wichtig ist das auch das Content Marketing keine einmalige Maßnahme oder ein einmaliges Projekt ist, sondern ein kontinuierlicher Prozess, der in die Marketing Maßnahmen integriert werden muss.
Im letzten Teil hat Andreas einen Entscheidungsbaum aufgezeigt, den man beim Content Marketing anwenden kann:

entscheidungsbaum-content-marketing

Alles in allem ein guter Workshop, der durch die stetige Diskussion interaktiv geführt wurde und dadurch Mehrwerte für alle Teilnehmer bereithielt.

Fazit SEO Campixx 2016

Die SEO Campixx wird nicht umsonst regelmäßig zur besten SEO Konferenz des Jahres gewählt. Bedingt durch die Räumlichkeiten und den familiären Charakter kommt man schnell in die Diskussion mit anderen Teilnehmern. Die ganze Veranstaltung erinnert eigentlich nicht an eine Konferenz, sondern ist durch die Workshops und die Nebenevents deutlich aufgelockerter. Wenige Frontalvorträge, viele Diskussionen während der Workshops. Dies gelingt – je nach Größe der Gruppe – mal gut und mal weniger gut.

Inhaltlich waren die Vorträge weitestgehend sehr gut. Gerade aus den Diskussionen zur internen Verlinkung und zur internen Relevanzverteilung konnte man einiges mitnehmen, die zum Teil auch immer wieder in anderen Workshops aufgegriffen wurden. Leider gab es parallel so viele Vorträge, dass man sich nicht alles ansehen konnte.

Insgesamt eine sehr gute Veranstaltung, die viel Spaß gemacht hat. Vielen Dank an Marco und sein Team für die tolle Organisation. Bis zum nächsten Jahr!

Weitere Recaps

Showing 2 comments
  • Stefan 'Steve' Godulla

    Hi Michael, vielen Dank für den Recap und das gute Feedback. Schön, dass Du was mitnehmen konntest :)
    Viele Grüße
    Stefan

pingbacks / trackbacks