Skip to main content

SMX 2018 Recap – Tag 2

Copyright © Online Solutions Group

Der zweite Tag auf der SMX München bot wieder spannende Vorträge und Insights zu Online Marketing Trends und Herausforderungen. Die wichtigsten Key-Learnings haben Laura Höß (Director Media) und Diana Karcz (Director SEO) für euch zusammengefasst.

AMP – brauchen wir das?

Sebastian Benz von Google und Bastian Grimm von Peak Ace AG sprachen in der ersten Session über den Nutzen von AMP. Sebastian ging auf die Vorteile von AMP ein, sprach aber auch das Caching Problem von AMP-Seiten an. AMP-Urls wie https://www.google.de/amp/www.example.com/ führen zu zwei Cookie-Sätzen und können Probleme beim Tracking mit Analytics verursachen. Vermeiden lässt sich dass, indem man Full-AMP für Landingpages implementiert, anstatt zwei Landingpages mit Canonical zu nutzen. Dadurch Entfällt auch die doppelte Pflege, wenn sich auf einer Seite etwas ändert. Vor diesem Hintergrund ist auch der Name AMP (Accelerated Mobile Pages) unglücklich gewählt, denn AMP funktioniert sowohl auf Mobile als auch auf Desktop.

Klare Vorteile sieht Sebastian in der Implementierung von AMP:

  • AMP ist eine Komponenten Bibliothek, z.B. „amp-carousel“
  • Alle Komponenten sind so gebaut, dass sie responsive sindAMP bietet eine gute User-Experience, ohne dass man Programmieren können muss und eine einfache Wartbarkeit

Als Beispiel für gute AMP-Seiten nannte Sebastian u.a. BMW und verriet zum Schluss, dass das AMP Ökosystem weiter wächst. Google arbeitet gerade u.a. an Ecommerce, AMP Stories, AMP for Email

Bastian hatte hierzu eine kontroverse Meinung:

Pro:

  • AMP fördert schnelle Ladezeiten
  • Performance wird durch die Diskussion als politisches Thema im Unternehmen platziert

Aber:

  • Aufwand wird unterschätzt. Bei großen Seiten müssen Stylesheets, Templates etc. neu gemacht werden, da AMP andere Tags nutzt
  • Es gibt Limitierungen
  • Branding ist schwierig. Beispielsweise werden keine Logos angezeigt. Hier zeigte Bastian Screenshots von vier Newspapern und lies uns raten, welche davon der Spiegel ist
  • Montetarisierung wird erschwert
  • Der Standard-User versteht nicht, dass er z.B. auf der Süddeutschen Zeitung ist, wenn sie über das Karusell in der Suche angezeigt wird. Der User bleibt in Google-Welt gefangen
  • Open Source ist AMP nur, wenn man es auf GitHub packt
  • Crawl Budget: Wer nicht ganz auf AMP umsteigt, hat eine normale Seite und AMP Seite (also muss doppelt gecrawlt werden). AMP ist für Google zum crawlen ressourenschonend
  • Geschwindigkeit zweischneidiges Schwert bei AMP: gefühlt sind AMP-Seiten enorm schnell, schneller als jede Standard Implementation. AMP wird jedoch im Hintergrund vorgeladen (Prefetching, Prerendering im Kraussell). Nimmt man das raus, ist z.B. die Standartseite von zeit.de schneller als die AMP-Seite. Nur der erste Klick bei AMP ist schnell
  • BMW ist Full AMP und ist extrem langsam (über Lighthouse getestet)

Fazit von Bastian: AMP keine Entschuldigung wichtige Basics der Performance-Optimierung zu vernachlässigen. Deshalb nennt Bastian auch gleich ein Paar Tipps zur Verbesserung der Ladezeiten.

Hierzu sollten insbesondere die Paint Timings geprüft werden, um  auf dieser Basis die Templates zu optimieren. Insbesondere liegt hierbei der Fokus auf dem critical rendering path. Die ganzen Tipps findet ihr in seiner Präsentation:

Aktivieren Sie JavaScript um das Video zu sehen.
Video-Link: https://www.slideshare.net/bastiangrimm/amp-smx-mnchen-2018

Am Ende erwähnte Bastian, dass die Menge an Bildern im Web ein Problem wird. Dem will das neue Format WebP von Google Sorge tragen. WebP ist ein Format für alles, funktioniert aktuell jedoch nur auf Opera und Chrome.

Technical Onpage & Onsite Clinic mit John Müller

Teilnehmer der SMX hatten auch dieses Jahr wieder die Möglichkeit ihre Seite einzureichen, um diese auf Herz und Nieren testen zu lassen. Ein großes Thema war die Internationalisierung.

  • Hreflang muss im Head der Seite stehen – Ein div- oder script-Tag vor dem Hreflang kann zu Problemen führen. Im schlimmsten Fall wird die Hreflang-Auszeichnung dann ignoriert
    John Müller SMX 2018
  • Auch ein iframe darf nicht vor Hrefalng stehen
  • Bei Hreflang unbedingt prüfen, ob der Canonical richtig gesetzt ist
  • Testen lässt sich der Quellcode über den Rich Results Tester in der neuen Google Search Console
  • Die Startseite wie „https://ww.website.com/ mit „ x-default“ markieren
  • Umgang mit Startseiten
    • Redirect zur Lokalen Version oder
    • Länder-/Sprachwahl-Seite oder
    • Passende Inhalte direkt anzeigen
  • Vorsicht bei Geotargeting. Der Crawler kommt immer aus den Staaten. Hier muss sichergestellt werden, dass der Crawler auch alle anderen Versionen crawlen kann: User und crawler nicht automatisch weiterleiten oder blockieren. Stattdessen kann per JavaScript ein Banner für den User angezeigt werden

Weitere Tipps und Antworten von John Müller:

  • Bei Nischenseiten auch mehr Content für die breitere Masse bereitstellen
  • Fachbegriffe: Inhalte müssen klar sein, vor allem bei Nischen. Es gibt Menschen, die nicht 1:1 die Begriffe kennen. Beschreibungen und Anwendungsbeispiele etc. nutzen –> Auch Google muss den Inhalt der Seite verstehen
  • Backlinks sind auch wichtig
  • Crawl Budget: Wenn Viele Urls auf noindex sind, kostet das Ressourcen –> Weniger Urls nutzen, Server aufrüsten
  • Content für Shops: z.B. Größentabellen, FAQ. Kürzere Inhalte wie Frage-Antwort können auch in den Featured Snippets erscheinen
  • Neuer Report in GSC: was wurde effektiv nicht indexiert (aber gefunden). Entsprechend können die Inhalte optimiert werden
  • Login nicht auf noindex setzten. Das ist nicht empfehlenswert, wenn User Google als Navigation benutzten, um den Login zu erreichen. Der noindex-Tag erschwert die Analyse in Google Analytics: Was sind tatsächlich neue Nutzer oder Nutzer, die Google als Navi verwenden?
  • Filternavigation mit vielen Urls: Noindex wirkt sich auf Crawl-Budget aus. –> Mit Paramater Tool in der GSC arbeiten
  • Canonical: Damit Google die kanonische URL beachtet, müssen auch andere Signale stimmen, Z.B: kurze URLs, https vor http, Redirects, Urls in Sitemaps  alles muss einheitlich sein, sonst muss Google sich entscheiden
  • Eingeklappte Texte: Bei der Desktop-Version werden eingeklappte Texte aktuell weniger stark gewichtet und nicht im Snippet dargestellt. Bei Mobile ist dies weniger problematisch. Bei der Entscheidung muss die Usability berücksichtigt werden
  • Unterschiedliche Rankings für Singular/Plural: Google kennt nur einzelne Wörter, kann noch nicht alles verknüpfen, z.B. wenn es Worte sind, die selten gesucht werden. Manchmal haben Singular und Plural aber einen anderen Nutzer Intent. Beide Versionen auf die Seite nehmen, wenn man merkt, dass man ein Problem hat und User beides suchen. Nicht allein auf Google verlassen.
  • Canonical bei Produktvarianten: Es gibt kein Limit beim Canonical, z.B. kann man von einem produkt 17 Größen haben die mit dem Canonical auf das Mutterprodukt verweisen. Es kann aber vorkommen, dass Google die unterschiedlichen Versionen erst indexiert und dann erst den Canonical verarbeitet. Dies stellt laut John Müller aber kein Problem dar.
  • Bewertung von Noindex: Wenn Seiten länger auf noindex sind, betrachet das Google als (Soft) 404-Fehler und lässt alle Links fallen. Längerfristig vererben noindex-Seiten dann keinen Pagerank oder Linkjuice. (John sagt, praktisch macht das aber keinen Unterschied)

Large Scale SEO und Automatisierung

Nach der Mittagspause stellte Pascal Landau von About You vor, wie wichtig Automatisierungsprozesse für SEO sind. Heutzutage müssen sehr viele Punkte geprüft werden: Https, http, Canonicals, Rich Snippets, Server, Trailing Slash, Parameter – nur um hier einige zu nennen. Und das muss natürlich laufend geprüft werden. Die Technik richtig aufzusetzten kostet ca. 15% der Zeit – prüfen das alles so bleibt wie es soll kostet 85%.

Zum Beispiel kann es passieren, dass eine Url, die über https erreichbar ist, plötzlich doch auch wieder über http aufrufbar ist und damit Duplicate Content erzeugt. Der erste Ansatz war hier eine große Excel-Checkliste zu implementiere und die Punkte zu prüfen. damit kann man laut Pascal jedoch nicht wachsen. Insbesondere bei großen Webseiten stößt man an die grenzen. Für die Massenbearbeitung und Prüfung müssen Automatisierte Prozesse definiert werden. About You hat hierzu ein automatisches Testing mit einer Wenn-Dann Bedingung implementiert.

Beispiel

  • Wenn (beispiel.de?abc)
  • Dann (Canonical=beispiel.de)
  • Sonst: Fehler

D.h. es wird jeweils angeben was erwartet wird, z.B. der Titel oder der Canonical. Weicht dies ab, dann kommt Fehlermeldung. Bei About You erhalten die Mitarbeiter hierzu einen Alert per eMail. Die Ergebnisse fließen wieder in weitere Checks ein. About you prüft so täglich alle 30 Min. tausende Urls auf Zahlreiche Kriterien und das automatisiert. Zusätzlich wird auch immer ein HTML Snapshot der URl gespeichert. So kann bei Änderungen nachverfolgt werden, was sich am Quellcode einer Seite geändert hat.

Tipp

Wer ein automatisiertes SEO Reporting selbst testen möchte, kann unsere kostenlose OSG Performance Suite App nutzen und wird bei Änderungen und Fehlern per Push-Nachricht alarmiert

Ralf Ohlenbostl von Zalando zeigte im Anschluss Tipps zur Ladezeitenoptimierung bei Zalando anhand vom Chrome User Experience Report und Lighthouse. Um viele Test bei umfangreichen Webseiten durchzuführen, kann bei Lighthouse 3g ausgeschaltet werden, um so schneller Ergebnisse zu erhalten. Lighthouse lässt sich außerdem auch als Webservice nutzen, was das laufende Testing erleichtert.

SEO-SEA-Balancing

Christian Paavo Spieker von One Advertising stellte in seiner Session vor, wie SEO und SEA sich optimal ergänzen. Noch heute wird oft zwischen SEO und SEA getrennt. Selbst Google trennt in Dublin seine Mitarbeiter strikt nach SEO und SEA. Durch Synergien lassen sich jedoch höhere Umsätze erzielen.

  • Im SEO ist nicht klar über welches Keywords der Umsatz komm, da eine Url für mehrere Keywords ranken kann. Diese Keywords lassen sich in Adwords aber granular dem Umsatz zuweisen
  • In Adwords kann man viel testen und Trends frühzeitig erkennen
  • Das Google Display Netzwerk kann für den Linkaufbau genutzt werden. Webseiten, auf denen Google Werbung ausspielt sind oft auch gute Linkquellen
  • Dank Adwords Anzeigen lassen sich die Snippets im SEO optimieren. Der titel ist weiterhin ein wichtiger Rankingfaktor und sollte daher nicht ständig geändert werden. Über Adwords anzeigen lässt sich einfach testen, welche Anzeigen bessere Klickraten erzielen
  • Der Suchanalyse- Bericht in der GSC besser als KW Planner. Die Daten in der GSC sind genauer, insbesondere wenn man in der Top10 rankt. Diese Keywords und Daten können für die Longtail-Optimierung in Adwords genutzt werden. SEO Impressions in der GSC bedeuten Relevanz, die auch für Adwords wichtig ist
  • Landingpage-Optimierung spielt für SEO und SEA eine Rolle: In Adwords wird der Qualitätsfaktor verbessert und im SEO das Ranking. Empfohlen wird eine Landingpage für beide Kanäle

Um schnell als relevante Daten zu kommen, kann man über Google Spreadsheets schnell die Daten kombinieren. Über Spreadsheets können Google Analytics und Search analytics über API geladen werden. Nach Freigabe der Daten kann man schnell prüfen, welche Longtail-Keywords im SEO relevant sind und diese als “exact match” in SEA einbuchen.

Tipp

Weitere Tipps zu SEO-SEA-Synergien findest du in unserem Blogbeitrag

Die Zukunft von Frage-Antwort-Portalen

Melanie Ruf von gutefrage.net, stellte die Frage, wie Portale, die nur auf User Generated Content basieren nach Panda noch überleben können. Als positives Beispiel nannte sie z.B. Motortalk: Die Community hat sich einen starken Namen in der Automobil-Branche aufgebaut und liefert wertvolle Inhalte.

Auch die Google Quality Guideslines für User Generated Content zeigen zahlreiche Vorteile und Chancen von Communitys auf. Für das Ranking ist nicht entscheidend, ob ein Text redaktionell erstellt worden ist. Eine gute Antwort von z.B. einem Rechtsanwalt kann sogar dem User einen größeren Mehrwert bieten. Gutefrage.net sieht daher positiv in die Zukunft. Das Portal hat aktuell noch mit Spam und doppelten bzw. ähnlichen Artikeln zu kämpfen. Um dem User trotzdem wertvolle Informationen bereitzustellen, greift das Portal auf Moderatoren zurück, die Fragen bewerten, einstufen oder als Spam markieren.

Die Klassifizierung von Content ist der erste Schritt, um nützliche von minderwertigen Inhalten zu trennen. Neben den Moderatoren prüft ein Algorithmus die Antworten zu gestellten Fragen und vergibt anhand dessen Punkte. Eine wichtige Rolle spielt hierbei das automatisierte Quality-Rating der Antworten. Antworten werden erst veröffentlicht, wenn sie eine bestimmte Punktzahl erreicht haben. Da gutefrage.net sehr stark von der organischen Suche abhängig ist, spiel Qualität eine sehr große Rolle. Viele Community-Mitglieder sind Experten auf Gebieten wie Gesundheit oder Recht; diese sollen stärker in den Fokus gerückt werden, damit User besser einschätzen können, wie qualitativ eine Antwort ist. Um die Qualität hoch zu halten, sehen ausgeloggte Nutzer nicht alle Diskussionen, die in der von Community-Mitglieder gestellt werden – nur informative Inhalte schaffen es in den Google Index.

SEA Vorträge

Zu SEA konnten wir uns an Tag 2 der SMX 2018 die folgenden Vorträge ansehen:

  • “Advanced Google Shopping: Features, Tools & Hacks” von Christian Scharmüller von Smarter Ecommerce GmbH und Liam Wade von Impression
  • “Wir sollten darüber sprechen: Attribution für und jenseits von SEA” von Peter O`Neill von LeapThree
  • “Advanced Targeting Tactics” von Sören Lüders von Jochen Schweizer

Die Vorträge waren für Einsteiger alle sehr informativ, als Agentur konnten wir hier jedoch leider keine neuen Ansätze mitnehmen. Wir würden uns daher freuen, wenn im nächsten Jahr auch wieder ein paar speziellere und tiefgreifendere Themen aus dem Bereich der bezahlten Suchmaschinenwerbung auf der SMX zu sehen sind, bei denen auch Besucher mit fortgeschrittenem Wissen noch etwas Neues lernen können.

Unser Vortrag zur SEMY Nominierung für die beste “Small Sized SEA Kampagne”

Um 14:35 Uhr durften wir in Saal 2 unsere Kampagne vorstellen, die in der Top-List für die beste “Small Sized SEA Kampagne” für den SEMY nominiert wurde. Jeder der 6 Speaker hatte 5 Minuten Zeit die Kampagne vorzustellen, und auch Laura Höß, Director Media bei der OSG, nutzte die Gelegenheit um die tollen Ergebnisse zu präsentieren. Auch wenn der Slot aufgrund der begrenzten Zeit etwas chaotisch ablief, freuen wir uns, dass wir diese Chance wahrnehmen konnten.

Kostenloser SEO-Check der OSG

SMX 2018 Recap – Tag 2
5 (100%) 3 votes


Ähnliche Beiträge


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*