Skip to main content

SMX 2019 Recap

Recap SMX München 2019

Copyright © OSG

Am 02. und 03. April 2019 öffnete wieder die SMX München, Deutschland größte Konferenz für Suchmarketing mit Fokus auf SEO und SEA, ihre Pforten für Fachbesucher. Dieses Jahr stand das Konferenzprogramm unter dem Motto „Game of Thrones“ – wer gewinnt im Online Marketing? Mit von der Partie waren wieder internationale und bekannte Speaker aus dem Online Marketing. Bevor es um das Fachliche geht, müssen wir das Catering loben – wie jedes Jahr lies das auch 2019 keine Wünsche offen. Leckere Kaffeespezialitäten, Smoothies, diverse orientalische, italienische Gerichte sowie Sushi, Bowls und Snacks versüßten uns den Tag neben fachlichen Input.

Inhaltsverzeichnis

Eröffnung und Keynote. Die vier Reiter der Web-Marketing-Apokalypse (Rand Fishkin, ehemals CEO bei Moz, Founder von SparkToro

Den Start machte wie schon letztes Jahr Rand Fishkin mit einer überragenden Keynote. Rand Fishkin ist ein Meister der Bühne und schafft es mit seiner lockeren Art ernste Probleme anzusprechen. In seinem Vortrag zeigt er die vier Reiter der Web-Marketing Apokalypse, die einen Wandel im Online Marketing herbeiführen.  Trotz der Untergangsstimmung hatte er natürlich auch einige Tipps bereit auch 2019 erfolgreich im Internet zu sein.

Der Traffic über Links aus sozialen Plattformen sinkt seit 2016 kontinuierlich. Twitter, Facebook, LinkedIn & Co tun alles daran, User auf der eigenen Seite zu halten. Bei Instagram ist das vielen schon bekannt – hier gibt es bereits kaum Möglichkeiten aus Posts rauszuverlinken. Dies führt so weit, das heute z.B. auch bei Twitter Tweets weniger Interessenten erreichen, wenn darin ausgehende Links eingebettet sind, da diese durch den eigenen Algorithmus herabgestuft werden. Letztendlich führt das zu weniger Traffic über Social Media.
Auch über Google wird immer weniger Traffic generiert. Trotzdem bleibt der Suchmaschinenriese die Traffic-Quelle Nr.1:

SMX 2019 Rand Fishkin Keynote 1

© SMX 2019 Rand Fishkin / Slideshare

Google setzt vieles daran, Suchanfragen der User sofort zu beantworten, ohne dass ein weiterer Klick getätigt werden muss. Während auf Desktop-Suchen die Welt noch rosig aussieht, werden über Mobile kaum noch Organic Klicks erzielt. Der Paid-Anteil liegt bei Desktop bei etwa 5,6%, SEO bei noch stolzen 65,6%. Bei Mobile liegt Paid bei 8,7% und SEO nur noch bei etwa 36,7%. Der No-Clicks-Anteil auf Desktop beträgt 34,4%, auf Mobile bereits schon 54,4% (Daten aus US, September 2018). Durch angereicherte Suchergebnisse sind Suchen bei denen kein weiterer Klick mehr nötig ist, in den letzten Jahren um 30% gestiegen – Tendenz weiter steigend. Google versucht den Usern möglichst alle Antworten schon direkt zu liefern, damit sinkt auch die CTR im SEO.

Influencer Marketing ist in vielen Ländern sehr populär – auch in Deutschland. Allerdings erzielt dieser Markt immer weniger Profit. Zum Teil gibt es hier einfach keine Messewerte, die Unternehmen ansetzten um ihren ROI zu prüfen. Man verlässt sich zu oft blindlings auf Influencer Marketing. Rand zitiert hier einen Influencer, der regelmäßig für Brands arbeitet, aber weniger als 50% der Unternehmen erkunden sich nach dem Erfolg und dem Ausgang der Kampagnen. Zum anderen tragen die steigenden Zahlen an Fake-Profilen und Fake-Followern dazu bei, dass der Markt verwässert wird und weniger qualitativen Traffic bringt. Influencer Marketing schöpft das Potential nicht aus, anstatt alle relevanten Kanäle zu nutzen, konzentrieren sich zu viele nur auf Youtube und Instagram. Dabei ist die Zielgruppe auch auf oder über Blogs, Twitter, Radio, Events, Facebook-Gruppen und vieles mehr zu erreichen.
Der Web-advertising ROI sinkt gegen null. Viele große Unternehmen investieren viel Geld in bezahlte Kampagnen mit dem Ziel mehr User zu generieren – die Kosten-Umsatz-Relation spielt für diese Unternehmen keine Rolle. Das macht es anderen Unternehmen schwer, zu angemessenen Klickpreisen noch Profit zu erzielen. Kurz gesagt: die Kosten gehen hoch, der ROI runter.

Was können wir dagegen tun? Die Devise von Rand lautet: Back to the roots. Wir müssen uns darauf konzentrieren, was wir schon vor Jahren im Fokus hatten, nämlich unsere eigene Website.

SMX 2019 Rand Fishkin Keynote 1

© SMX 2019 Rand Fishkin / Slideshare

Die Website und eigene Email-Listen sind Dreh- und Angelpunkt aller Aktivitäten. 10 neue Email-User sind z.B. mehr wert wie 10.000 Follower. Im SEO müssen wir aufhören nur nach Suchvolumen zu optimieren, entscheidend ist das Klick-Volumen, das erreicht werden kann. Hier bieten Suchanfragen mit geringerem Suchvolumen oft besseres Potential.

e-mail-marketing

© SMX 2019 Rand Fishkin / Slideshare

Alle Optimierungen, die gemacht werden sind vielleicht nicht von Anfang an erfolgreich, dann aber ein Selbstläufer. Rand vergleicht diese Aktivitäten mit einem Schwungrad, das beim zweiten oder dritten Dreh an Schwungkraft gewinnt. Das beginnt beim Content Marketing und gilt genauso für Ad Kampagnen. Ein optimales Schwungrad funktioniert nach Rand so:

SMX 2019 Rand Fishkin Keynote 3

© SMX 2019 Rand Fishkin / Slideshare

Wisse wo deine Zielgruppe ist: Instagram und Youtube reichen nicht. Man muss weitere Content-Formate und Medien nutzen und die richtigen Quellen anhand Daten analysieren.

Inhalte in sozialen Beiträgen müssen für User attraktiv sein, um mehr Reichweite zu erzielen. Die Algorithmen der Social Media Plattformen stufen nach einem werblichen Beitrag auch alle weiteren Beiträge schlechter ein und umgekehrt. Dieses System kann man aber auch für sich nutzen: gute, nicht-kommerzielle Beiträge erstellen, die zu mehr Engagement führen, um die nötige Reichweite aufzubauen. Dann kann ein Inhalt mit ausgehendem Link oder Werbung erstellt werden. Drauf folgend müssen wieder informative, nicht-kommerzielle Inhalt gepostet werden.

Man muss Content erstellen, der einen hohen potentiellen Outreach erzeugt. Dieser Content deckt Themen ab, der die Schnittstelle zwischen dem, was Kunden bewegt und dem, was Kunden beeinflusst, bildet:

SMX 2019 Rand Fishkin Keynote 4

© SMX 2019 Rand Fishkin / Slideshare

Am Ende kann via Paid Media die Zielgruppe noch einmal angesprochen werden.

Key Learnings

Als Erstes müssen Organic und Brand optimiert werden, dann erst Ads und CRO. Ohne gutes SEO und Branding sind Klickkosten bei Ads kaum noch tragbar.

Die ganze Präsentation zu Keynote auf der SMX 2019 gibt es hier: https://www.slideshare.net/randfish/the-next-era-of-web-marketing-2019-beyond

Schnell ist zu langsam: Einmal um die Welt und das in Höchstgeschwindigkeit (Martin Splitt, Webmaster Trends Analyst / Bartosz Góralewicz, CEO bei Onely)

Ursprünglich war für diesen Track Tobias Fox, CEO bei VERDURE Medienteam GmbH eingeplant. Martin Splitt ist kurzfristig für ihn eingesprungen. In seinem Track ging es technisch zu Sache und um die elementaren Punkte rund um JavaScript:

  • Was passiert beim Rendering?
  • Was hat JavaScript damit zu tun?
  • Nicht jedes JavaScript ist gleich
  • JavaScript on mobile

Zuerst erklärte Martin Splitt kurz das Grundgerüst des Renderns. HTML und CSS sind das Skelett einer Seite; sie geben z.B. die Größen von Bildern vor. HTML und CSS wird geparst daraus entsteht ein Document Objecte Model (DOM) bzw. CSS Objecte Modell anhand deren letztendlich das Layout einer Seite erstellt wird.

Mit JavaScript wird das ganze schon komplizierter. JavaScript greift in viele Bereiche einer Website ein, z.B. auch schon in CSS. Damit beginnt der CSS-Kreislauf vom Parsen bis zur Anzeige der Website oft von vorne, was sich negativ auf die Ladezeiten auswirken kann. Bei diesen Prozessen bemängelt Martin, dass mit JavaScript oft nicht sauber umgegangen wird:

  • JavaScript nimmt oft unkomprimiert 1 MB in Anspruch, das ist schlecht für die Ladezeit
  • JavaScript hat oft massive Auswirkungen auf das CSS einer Seite – oft wird dann aber der Designer bzw. Entwickler des CSS als Buhmann dargestellt. Ein guter JavaScript Programmierer muss daher auch Kenntnisse in CSS haben und umgekehrt, sonst wird bei der Optimierung an den falschen Stellen geschraubt.

Beim Rendering von JavaScript gibt es unterschiedliche Methoden:

SMX 2019 Martin Splitt JavaScript Rendering

© OSG / SMX 2019 Martin Splitt

An einem Case zeigt Martin, dass ein Client Side Rendering von JavaScript zu einer schlechteren Performance führt. Seine klare Empfehlung: Hybrid Rendering, eine Mischung aus client- und serverseitigem Rendering.

Tipp

Auf Youtube hat Martin Splitt eine eigene Google-Serie zu JavaScript SEO. Hier erklärt er in kurzen Videos wie Google JavaScript indexiert und was dabei zu beachten ist.

Die Präsentation von Martin Splitt gibt es hier: Web Performance Wildness

Weiter ging es beim Vortrag von Bartosz Góralewicz darum, wie JavaScript das mobile Laden auf unterschiedlichen Smartphones beeinflusst. Dabei ging auf den Artikel „The cost of JavaScript in 2018“ von Addy Osmani ein. In diesem wird das Motorola G4 als das meistgenutzte Smartphone vorgestellt, an dem sich Programmierer orientieren sollen. Bartosz stellte jedoch fest, dass die Datengrundlage von Addy Osmani falsch ist, da sich die Daten nicht auf das Jahr 2018, sondern 2016 beziehen. Der Smartphone-Markt entwickelt sich rasant weiter und das Motorola G4 kann daher nicht als Benchmark dienen. Leider benutzten viele Entwickler dieses Modell weiterhin als Grundlage für die Optimierung.

Bartosz machte in paar Test auf unterschiedlichen Devices, die zeigen, dass es extreme Unterschiede beim Laden gibt:

Dabei erzählte er aus dem Nähkästchen lustig, wie schwierig und absurd es ist, an manche alten Smartphones zu kommen. Am Ende konnte er ein gebrauchtes Motorola G4 in den Händen halten – zum Preis von nur 35 Euro.

Auf welchen Device soll man nun letztendlich optimieren? Globe Ansätze bringen für Bartosz nichts. Deshalb wertete er die Situation in Deutschland aus:

  • Zu 98% gibt es in DE bereits 4G (das ist deutlich mehr als im globalen Kontext – auch wenn sich in Deutschland viele über die Netzgeschwindigkeit beschweren)
  • Laut Google Analytics Zahlen gehört mit 38% das Iphone zu den Top-Devices
    • Davon 60% Iphone 7 oder höher
    • Davon 90% Iphone & oder höher
  • Das Motorola G4 spielt in Deutschland keine bedeutende Rolle

Sein Benchmark für Deutschland: „Das Iphone 9“ – eine Mischung aus Iphone 8 und X.

Weiter ging Bartosz auf die verschärfte Wettbewerbssituation in Deutschland ein: wir haben hier oft bessere SEOs, Programmierer und damit auch schnellere Webseiten. Speed matters, deshalb muss man sich jeweils die beste und schnellste Seite der eigenen Branche aussuchen und sich daran orientieren.  Ein gutes Beispiel ist Amazon, das bei einem seiner Tests sogar auf einem alten Motorola G4 die Seite Media Markt schlägt, die mit einem neuen Samsung Note 8 getestet worden ist.

Ein Punkt ist für ihn besonders wichtig: Website Performance ist ein Rankingfaktor. Ladezeitenoptimierung ohne Beachtung von JavaScript und dem Renderingprozess funktioniert nicht. Googlebot verwendet als User Agent immer noch Chrome 41 – es muss also sichergestellt werden, dass eine Seite auf allen Betriebssystemen und Handys schnell lädt. Das funktioniert ohne die richtigen Daten nicht.

Key Learnings

“design your website based on real data”

Die Präsentation zu diesem Recap gibt es hier: one.ly/smxmunich

6 Ansätze zur UX-Optimierung deiner E-Commerce Website (André Goldmann, Gründer und Inhaber vom Büro für gute Websites)

Der erste Vortrag im Bereich E-Commerce behandelt das Thema User Experience (UX) von André Goldmann, In 34 Cases werden wichtige Ansätze in der UX gezeigt. Wichtig dabei sind vor allem die Bereiche:

Spannende Learnings im Überblick:

  • Vertrauen schaffen – aber nicht nur auf der Startseite
  • Kategorien in den sichtbaren Bereich packen

Viele Shops nutzen große emotionale Bilder auf den Landingpages. Unterkategorien bzw. Filter zu spezifischen Kategorien an der Sidebar werden vom Nutzen oft übersehen und fangen an zu Scrollen. Als Beispiel wurde hier fahrrad.de genannt. Sucht der User z.B. ein Citybike findet er auf der Übersichtsseite nur E-Bikes oder Downhill Bikes. Was passiert? Der User verlässt die Seite klickt auf ein anderes Google Suchergebnis. Würde fahrrad.de das Headerbild verkeinern und mit größeren Buttons die einzelnen Fahrrad Arten mit Link zu den richtigen Landingpages platzieren, würde sich der User besser zurecht finden.

  • Produktbezogene Benachrichtigungen ermöglichen durch Preorder Funktion
  • Produkte geräteübergreifend gleich darstellen
  • Filter userfreundlicher gestalten und am Bedürfnis des Users ausrichten
  • Emotionen zählen: Generate Sexy Content

In den Cases wurden viele US Shops genannt, unter anderen B&H. Auch der deutsche Online Shop wayfair.de, wird häufig als Best-Practice bei einzelnen Elementen gezeigt.

Ob man es glauben will oder nicht, aber auch Amazon kam sehr häufig vor. Der Shop ist optisch vielleicht kein Schmuckstück, aber er orientiert sich zu 100% am Nutzer.

Predictive SEO (Sebastian Erlhofer, Geschäftsführer, mindshape GmbH)

Wie können SEOs datengetriebene Entscheidungen treffen? Damit beschäftigte sich Sebastian Erlhofer in seinem Vortrag. Predictive SEO bedeutet für ihn Daten zu nutzen, um Optimierungserfolge im SEO vorherzusagen. Ohne Predictive SEO können wir Google nur hinterherlaufen und werden abgehängt. Jeder der Inhouse oder in einer Agentur Suchmaschinenoptimierung betreibt, wird regelmäßig mit drei Fragen konfrontiert:

  • Was optimieren wir? Heute ist SEO sehr komplex und besteht nicht nur aus Onpage-Optimierung, Backlinks und Inhalten. Weitere relevante Bereiche sind z.B. Pagespeed, Technical SEO usw.
  • Wann optimiere ich was? Die Wahl der passenden Maßnahme zur richtigen Zeit ist entscheidend.
  • Wie intensiv und vollständig muss optimiert werden, um einen optimalen ROI zu erzielen?

Letzter Punkt ist kritisch, da es sich um eine Budget-Frage handelt. Die Kosten, die in SEO investiert werden, müssen sich letztendlich auch rechnen. Das Potential nur anhand des Status Quo zu berechnen, reicht dabei nicht. Heute muss man Daten nutzen, um Optimierungserfolge hervorzusehen und zu berechnen. Ohne Machine Learing funktioniert das nicht.

Warum und wie jeder SEO Machine Learning nutzen kann, zeigte Sebastian an einem Case. In diesem Szenario ging es darum eine CTR-Vorhersage für das Keyword „schuhe kaufen“ zu treffen, wenn das Keyword von Position 8 auf Position 3 optimiert wird:

  • Schritt 1: Aktuelle CTR-Daten werden täglich via API aus der Google Search Console geholt. Berücksichtigt werden für diesen Test nur Daten mit mehr als 10 Klicks und Position 1-10.
  • Schritt 2: Via node.js werden aus Google weitere Infos gezogen, welche die CTR maßgeblich beeinflussen: Gibt es viele Ads, einen Bilder-Block oder Video-Box? Weitere Featured Snipptes? Angereicherte Ergebnisse führen dazu, dass der organische Treffer in den SERPs nach unten rutscht. Daher wird mit Pixeln die Höhe dieser Blöcke via node.js ausgewertet und berücksichtigt.
  • Schritt 3: Diese Daten aus den SERPs werden in JSON gespeichert.
  • Schritt 4: Jetzt müssen die Daten verarbeitet werden. Hierzu kann man die Daten in ein Machine Learing Programm reinladen, z.B. KNIME, Rapidminer, oder Python nutzen Diese Programme erstellen anhand unterschiedlichen Algorithmen eine Vorhersage.

Dieses Szenario ist vereinfacht dargestellt. Da Google z.B. vieles an der SERP-Darstellung ändert und testet, müssen die Daten mehrmals verfeinert werden, bis am Ende möglichst valide Daten vorhergesagt werden können. Die Daten aus der SERP-Zusammenstellung können dann wiederum vielfältig für Predictive SEO genutzt werden. Neben dem Potential anhand der CTR-Berechnung, lässt sich daraus z.B. auch beantworten, ob die rankenden URLs transaktional oder informatorisch sind.

Die Session war auf jeden Fall sehr spannend und zeigt deutlich, dass professionelles SEO auch Skills in Big Data, Machine Learning und Data Mining benötigt.

Online Ads: Was ist neu, was ist wichtig? Neue Ad Formate, Updates, Responsive Ads und mehr /Brad Geddes, Co-Founder von Adalysis / Navah Hopkins, Services Innovation Strategist bei WordStrea)

Brad Geddes und Navah Hopkins sprachen über die Unterschiede von RSA und ETAS. Wusstet ihr das ihr RSA und ETAS je nach Kampagnen oder Anzeigengruppen Ziel ausrichten sollt? Hier ein Überblick:

Studien zeigen, dass RSA Anzeigen eine bessere Klickrate aufweisen und genutzt werden sollten wenn das Ziel Traffic oder Bekanntheit ist.

ETAS hingegen haben zwar eine viel geringere Klickrate, aber eine deutlich bessere Conv.- Rate. Haben eure Kampagnen einen Conversion Fokus solltet ihr hauptsächlich ETAS nutzen.

eta-vs-rsa-anzeige

© SMX 2019 Brad Geddes

Wichtig ist jedoch, dass vor einer Umstellung immer alles wird, bevor man es für das gesamte Konto ausrollt.

What about Headlines?

Sieht man sich die Headlines in den Google Suchergebnissen an, wirken alle ziemlich langweilig. CTAs wie „Jetzt kaufen“ oder „Hier Downloaden“ haben ausgedient.

User Benefits und spezielle Features oder UPS sollten in die Headline rutschen und nicht mehr als Randinformation in einer Callout landen.

Call-to-Actions

© SMX 2019 Brad Geddes

Die Cases der Vortragenden zeigen dadurch deutliche Steigerung der Klickraten und Conversion Rates.

Weitere Tipps für bessere Klickraten

In Deutschland werden Fragewörter wie „Wie“ und „Was“ am Häufigsten gesucht. Fragen in der Headline können ebenfalls zu besseren Klickraten führen. Vor allem im B2B Bereich werden W-Fragen in Ads empfohlen.

schlecht-anzeigen

© SMX 2019 Navah Hopkins

Keynote: Diesmal wird es ernst: die Roboter kommen und alles wird sich ändern (Jim Sterne, Co-Founder and Board Chair, Digital Analytics Association)

Schon heute kommt Machine Learning & AI im Marketing zum Einsatz. Wie das funktioniert und was die Zukunft bringt, hat Jim Sterne auf den Punkt gebracht. Hier der Recap zu seiner Keynote auf der SMX München 2019:

Marketing heute, wird bald ein Relikt sein und in dieser Form nicht mehr geben. Das gilt für jede Branche, egal ob B2B oder B2C. Jim sprcht von einer C2B Welt, in der die Bots der Kunden mit den Bots der Unternehmen verhandeln.

Als erfolgreiches Beispiel für Machine Learning im Marketing nannte Jim das Programm Shopify Kit. Shopify ist ein Shopsystem, da mit Kit das Marketing für seine Kunden automatisiert. Anhand der Shopbesuche schlägt Kit zum Beispiel eigenständig Retargeting Kampagnen vor, um die Sales zu erhöhen. Anhand der Shop-Zahlen sind die Vorschläge sehr konkret, z.B. eine Retargeting Kampagne über 14 Tage mit einem Budget von 25 Dollar – Eine Preview der Ads für die Kampagne liefert Shopify Kit auch gleich mit. Alles was der Shopify Nutzer dann nur noch machen muss: ja oder nein klicken.

Dieses Beispiel führt ihn zum Thema „Convenience – Meaning to do Nothing“. Die Menschen mögen es bequem und Machine Learning verleiht uns, vor allem im Privatleben, diesen Lifestyle.

Hacking Google: Wer versteht, wie Hacker denken, verbessert sein SEO (Tom Anthony, Head of R&D, Distilled)

Tom Anthony zeigte in seiner Session einige seiner Google Hacks und wie leicht es war, den Ranking Algorithmus auszutricksen.

Im einem Case ging es um die Frage: Folgt Google einem Cross-Domain-Redirect einer Sitemap?

Eigentlich gibt Google vor, dass alle Urls einer Sitemap.XML auch zu der Domain gehören, welche die Sitemap einreicht. Die entsprechende Domain muss hierzu auch in der Google Search Console sein. Die Sitemap kann dann in die robots.txt eingefügt und in der Google Search Console hochgeladen werden. Was viele nicht wussten: Die Sitemap kann auch als Ping an Google übermittelt werden (siehe hierzu auch die Search Console Hilfe):

http://www.google.com/ping?sitemap=<complete_url_of_sitemap>
Beispiel:
http://www.google.com/ping?sitemap=https://example.com/sitemap.xml

Die Ping-Funktion nutzte Tim für seinen Hack:

SMX 2019 Tom Anthony 1

© SMX 2019 Tom Anthony

Für den Trick nutzt man am besten Open Redirects. Bei vielen Seiten werden diese im Logout (z.B. „domain.com/logout?“) genutzt. Über diese ungesicherten Redirects kann der Traffic zu einer fremden Seite abgeleitet werden. Auf den folgenden Slides, wurde z.B. die Domain jono.com gehackt, um den Traffic auf tom.com zu leiten. Es lässt sich aber auch ein Redirect auf die „falsche“ Sitemap setzen (in diesem Beispiel tom.com/evil.xml).

Google hat die „falsche“ Sitemap problemlos verarbeitet. Über die gleiche Vorgehensweise lassen sich auch Hreflang Tags ausnutzen, da diese oft in der Sitemap.xml übermittelt werden. Hierzu muss ein Open Redirect gefunden werden, dann kauft man sich eine Fake-Domain und scrapt den Inhalt der Original-Seite auf die Fake-Domain, bzw. setzt den Inhalt neu auf und erstellt eine Sitemap.xml. In diesem Bespiel hat Tom eine Fake-Sitemap gebastelt und Hreflang-Tags für eine fremdes Land angelegt. Dabei profitiert die Fake-Domain vom Trust der gehackten Seite. Hier das Beispiel:

PS: Tesco wurde nicht gehackt und ist nur ein erfundenes Beispiel. Den Hack hat Tom allerdings wirklich durchgeführt und dann an Google reported. Google hat ihm daraufhin einen Bonus gezahlt und die Sicherheitslücke geschlossen.

Key Learnings

Redirects können z.B. für eine Sitemap Manipulation ausgenutzt werden. Man muss daher sicherstellen, dass auf der eigenen Website keine Open Redirects genutzt werden. Können diese nicht entfernt werden, kann man sie über die robots.txt blockieren. Die eigenen Logs sollten auf 302 Redirects geprüft werden.

Nicht alle Sicherheitslücken, die Google bekannt sind, wurden beseitigt. ein großes Problem sind zum Besipiel XSS Attacken (XSS: Cross Site Scripting):

<div>
        Showing page <?=$_GET['page']?>
</div>

Ist das nicht sauber programmiert, lassen sich über diesen Code diverse Skripte einspeisen und ausführen.

Warum sind XSS Attacken so problematisch?

  • Der Googlebot verwendet weiterhin Chrome 41 als User Agent. Im Gegensatz zu neueren Versionen hat Chrome 41 keinen XSS Auditor, der solche Angriffe erkennt und unterbindet.
  • Der Googlebot kann JavaScript ausführen und indexieren. John Müller von Google hat auch bestätigt, dass Links gleich behandelt werden, egal ob es sich dabei um HTML- oder JavaScript-Links handelt.
  • Über XSS lassen sich JavaScript Links und Canonicals erstellen, die von Google indexiert werden

XSS Angriffe sind ein weit Verbreitetes Phänomen. Auf Seiten wie openbugbounty.org werden zahlreiche Fälle gelistet.

Auf jeden Fall war das ein sehr aufschlussreiche und spannende Session. Auch wenn die Szenarios Black Hat Methoden aufzeigen, für Tom Anthony war eins sehr wichtig: Think outside the box. Alle Lücken lassen sich genauso auch für White Hat SEO nutzen

Key Learnings

Den Schutz der eigenen Website muss man ernst nehmen und Hacker-Attacken über entsprechende Sicherheitslösungen abwehren. Viele Marketer haben das Thema Website Security noch nicht auf dem Schirm. Dabei können Hacker hier großen finanziellen Schaden einrichten.

Das Ende von Exact Match? Taktiken für negative Keyword Automatisierung in 2019 und danach (Christopher Gutknecht, Head of Online Marketing bei norisk)

Ein spannender Advanced Vortrag, der Tipps und Hilfsmittel zeigte, um das Handling mit Negative Exact zu vereinfachen. Unter https://www.slideshare.net/norisk findet Ihr auch den gesamten Vortrag.

Er zeigt die Keyword Problematik in großen Konto auf und dass es ohne Automatisierung im Bereich negative Keywords kaum mehr geht. Dazu erklärt Chriostopher Gutknecht, die einzelnen Strategien im Bereich Shopping, DSA und Search und stellt dazu tolle Skripte für die Automatisierung und einfacheres Handling für Negatives zu Verfügung. Die Skripte findet ihr hier: http://bit.ly/norisk_negatives

 

Search Queries

© SMX 2019 Christopher Gutknecht

 

Das Problem bei DSA und Search ist, dass die Search Queries sich oft in die Quere kommen und sich überlappen und dadurch der CPC höher ausfällt als nötig.

Mehr als 10 blaue Links: SERP-Optimierung auf fortgeschrittenem Niveau (Dan Petrovic, Director bei DEJAN Marketing)

In dieser Session Dan Petrovic vor, wie man seine Snippets für die SERPs optimiert, um höhere Klickraten zu erzielen. Google wird immer mehr zu einer Antwort-Maschine und will User auf der eigenen Seite halten. Featured Snippets und angereicherte Suchergebnisse machen es, schwer, über die Google Suche organische Klicks zu erzielen. Die Frage, die sich Marketer stellen müssen – Warum klickt niemand? Trotz des Wandels in der Darstellung der Suchergebnisse, kann man seine Snipptes optimieren. Das funktioniert nur, wenn man die User auch richtig anspricht. Hierzu hat Dan eine Studie erstellt und ausgewertet. Die Lösung lautet: Match, Trust, Rank. Dabei spielt der Inhalt des Snippets eine entscheidende Rolle. Das eigene Snippet muss zur Suchanfrage passen und die Nutzerintention befriedigen. Wir dürfen nicht nur für Google optimieren, sondern müssen bei Usern Emotionen wecken. Das klappt zum Beispiel, indem der Meta Titel und die Meta Description um Wörter ergänzt werden, die etwas beim User auslösen. Trust Wörter sind zum Beispiel: Award, bester(r), zertifiziert, vergleichen, clever, intelligent, Garantie, sicher usw. Der Brand spielt hierbei auch eine Rolle. Die ganze Liste an relevanten Wörtern gibt es hier: benedict.co.uk/research/trust-words.xlsx

Auf https://buffer.com/library/words-and-phrases-that-convert-ultimate-list gibt es zusätzlich eine Liste von 189 starken Wörtern, die Helfen User zu überzeugen und richtig anzusprechen.

Sein Fazit: Die Aufmerksamkeit der Leser erhält man nur, wenn man diese mit den richtigen Wörtern auf einem persönlichen Level anspricht.

Da viele Suchergebnisse mittlerweile gleich aussehen, empfiehlt Dan auch mal ungewöhnliche Methoden auszuprobieren, um sich besser abzuheben. Das können zum Beispiel bewusst kurze Snippets sein:

Letztendlich muss man zuerst seine Klickraten analysieren und testen. Hierfür stellt Dan Petrovic sein kostenloses Tool Algoroo zur Verfügung, das mit der Google Search Console verknüpft werden kann.

  • Anhand der GSC wird die Klickrate der Top10 analysiert
  • Anhand dieser Daten wird das Klick-Potential ausgewertet, das noch nicht genutzt wird
  • Die Top-Urls, die nicht die gewünschte Klickrate erzielen, müssen untersucht und optimiert werden
  • Bei der Optimierung ist allerdings zu beachten, dass die CTR-Verbesserung anhand der gleichen Position gemessen werden muss. Wenn sich die Position verbessert, steigt oft automatisch die CTR, dann wäre der Test nicht aussagekräftig. Am besten klappt das daher mir einer größeren Daten-Basis. Zum Beispiel werden die Produkte einer Shop-Kategorie getestet und 50% davon optimiert. Dann wird auf Positions-Ebene verglichen, ob sich die CTR verbessert hat. (Same Rank. More Clicks)

Die Präsentation inkl. Anleitung zum Testen gibt es hier: https://dejanseo.com.au/#smx

 

E-Mail Marketing der Zukunft und warum jeder Suchmarketer sich damit auskennen sollte

„Für einen eingesetzten Euro bekommt man 49 € Umsatz“! So startet Jenna Tiffany Ihren Vortrag zum Thema „Email Marketing der Zukunft und warum jeder Suchmarketer sich damit auskennen sollte“.

Auch dieser Vortrag war geprägt von AI. Am Beispiel von Domino´s wurde die Performance von Newsletter-Titel gezeigt. (Maschine vs. Human). Tools sind mittlerweile in der Lage auf die Zielgruppe angepasste Newsletter Titel zu erstellen, die zu besseren Klickraten führen. Besser als die, die Menschen erstellt wruden. Zudem wurden in diesem Case die Headlines auch für SEO Meta Title und die Title bei den Social Ads genutzt. In beiden Kanälen konnte eine Steigerung der Klickraten verzeichnet werden.

Weitere allgemeine Tipps für E-Mail Marketing waren:

  • Anmeldung zum Newsletter auf der Website prominent platzieren
  • Willkommens-Mail an neue Abonnenten senden
  • Personalisierung in Mails ist alles
  • Newsletter mit Mehrwert für die jeweiligen Zielgruppe senden

SEMY Präsentation der Nominierten, Abstimmung und Verleihung

In sechs Kurzpräsentationen konnte die Finalisten Ihre Cases in den Bereichen „Beste SEA Kampagne“ und „Bestes Content Marketing Kampagne“ präsentieren.

Die Gewinner des diesjährigen SEMY Awards im Bereich SEA ist Bloofusion. Bloofusion stellt Ihren Case mit dem Kunden Zumnorde vor. Durch ein super intelligentes Skript und smarten Kampagnen konnte die Agentur die Online als auch Offline Käufe stärken.

Die Gewinner im Bereich Beste SEO/Content Marketing Kampagne ist die UNIQ GmbH mit dem Case deutschalandLiebe by Urlaubsguru. Ziel war es die Urlaubsdestination Deutschland bei Urlaubsguru zu vermarkten. Mit einem großen Team, hunderten von Texten, Facebook Posts, Infografiken und Videos konnte die Kampagne erfolgreich am Markt platziert werden.

Migration: Best Practices und die spezifischen Herausforderungen bei M&A und dem Wechsel von Domain- und Markennamen (Bastian Grimm, Director Organic Search bei Peak Ace AG / Patrick Stox, Technical SEO bei IBM)

Der zweite Tag auf der SMX München 2019 startete mit einem ganz technischen Thema für uns: Ein relaunch mit allen Hürden und Potentialen. Es gibt viele Gründe für eine Migration, z.B.

  • Umstellung von Http auf https
  • Ein Serverwechsel
  • URL-Änderungen

Für jedes Projekt muss man sich einen Plan überlegen und eine Checkliste erstellen.

Pre-Migration

  • KPIs definieren, da sonst nicht messbar, ob der Relaunch/die Migration erfolgreich waren
  • Golive-Checkliste erstellen: Zeitplan aufsetzten und alle Beteiligten ins Boot holen. das können auch Mitarbeiter auch weiteren Abteilungen sein, wie dem Ads-Team. alle müssen informiert sein
    • Content Inventur: schlechten Inhalt identifiziere und sich ggf. davon trennen. Gute Inhalte beim Umzug nicht vergessen
    • Am besten vieles vor dem Umzug schon aufräumen, z.B. schlechten Content
    • Seite mehrmals crawlen
    • Testumgebung crawlen und mit der aktuellen Seite abgleichen
    • Redirects Mappen
    • Analytics Inventur. Tipp: für alte und neue Seite gleiche Tracking ID nutzen und via view-level Filter setzten. So lassen sich später die Änderungen besser verfolgen
    • Website Performance prüfen, z.B. via Lighthouse
    • Redirects mappen
    • Test-Umgebung sperren
    • bei einem neuen Code, z.B. mit viel JavaScript immer einen Mobile Friendly Test machen und den Google URL Inspector verwenden

Go-Live

  • Domain in GSC verifizieren
  • X-Robots HTTP Responses prüfen
  • robots.txt prüfen
  • Domainnamen in allen Elementen prüfen (z.B. in Canonicals)
  • Server Logs prüfen (da GSC Daten nicht live sind und immer eine Verzögerung haben)
  • Flush CDN

Post-Migration

  • Sitemaps einreichen
  • Redirects monitoren und so lange wie möglich lassen

Patrick Stox erzählte dann aus der Praxis bei IBM. Seine Tipps:

  • Das Wichtigste sind sinnvolle Redirects
  • Bilder, PDFs etc. nicht vergessen
  • Alte Redirects nicht vergessen. wenn eine Domain mehrmals umbenannt wird, alte Redirects prüfen und übernehmen
  • Redirects von Seiten, die Links haben niemals löschen
  • Bei einem Serverumzug unbedingt auch die alten Redirects auf den neuen Server ziehen
  • Nach Redirect Möglichkeiten Ausschau halten und alte 404-Fehler weiterleiten
  • Alte Domains weiter monitoren (z.B. Sicherheitszertifikate, relevante Seiten)
  • Mixed Content (http und https) auf einer Seite vermeiden und korrigieren
  • Bei HSTS zeigen Redirects den Statuscode 307 an, weil der vom Browser gecached ist. Dahinter verbirgt sich aber der Statuscode 301 oder 302. Ohne Cache oder in der GSC prüfen
  • Alte Seiten verschwinden erst aus dem Google Index, wenn Google diese erneut crawlt. Das kann dauern. Alte URls können in einer Sitemap an Google übertragen werden, bis Google diese gecrawlt hat. Danach kann die Sitemap mit alten Seiten entfernt werden.

Quantität vor Qualität? Human versus Machine? Ein Blick in die Blackbox der Automatisierung von Google Ads

Automatisierung rückt in vielen Bereichen des Google Ads Kontos immer mehr in den Fokus. Spannende Tipps dazu präsentierte Oliver Zenglein. Sei es zum Thema Headlines. Die über die Geschäftsdaten automatisiert ausgesteuert werden können bis hin zur feedoptimierte Kampagnenerstellung über Tools wie Productsup.

Bei DSA Kampagnen wird auch der Ausschluss von Exact und Brand Keywords über Skripte empfohlen. Da diese Keywords ebenfalls über DSA abgedeckt werden und so zu fehlerhaften Daten führen.

 

DSA-Kampagnen

© SMX 2019 Oliver Zenglein

 

 

 

 

 

 

 

 

 

 

 

 

Smart Shopping wird eher weniger empfohlen. Warum? Da man hier überhaupt keine Kontrolle über Gebote, Placements oder sonstigen Aussteuerungsmöglichkeiten hat. Auch fließen hier Remarketing User in die Performance hinein, die ggf. auch so gekauft hätten.

Smart Display ist ebenfalls umstritten bei den SEA Gurus der Branche. Fraglich ist die Inkrementalität der Kampagnenart. Oft werden hier ohnehin wiederkehrende Nutzer angesprochen, die ggf. ohnehin gekauft hätten.

Keynote: Wenn die Technologie unser Leben bestimmt – Überlebensstrategien für eine neue Ära (Karl Gilis, Co-Founder von AGConsult)

Karl Gilis muss man einfach erlebt haben. Keine Keynote war so unterhaltend und dabei so augenöffnend wie seine. Wir hoffen doch sehr, ihn nächstes Jahr wieder auf der Bühne zu sehen. Karl verstand es gut, den Status Quo des Online Marketings ab absurdum zu führen und uns dazu zu bringen, uns an die eigene Nase zu fassen.

Warum sind viele Unternehmen heute nicht im Internet erfolgreich? Wir geben potentiellen Kunden das Gefühl, das Gefühl, dass wir uns nicht um sie kümmern. Da helfen auch Technologien und neue Ideen nicht. Oder wie Karl sagte:

the result of personalization on a shitty website? a personalized shitty experience

Am Anfang muss der User mit seinen Bedürfnissen stehen, alles andere kommt danach:

SMX 2019 Karl Gillis Keynote 1

© SMX 2019 Karl Gillis

Trotzdem behaupten 80% der Unternehmen „customer-centric“ zu sein. Nur 8% ihrer Kunden stimmen dem zu. Viele Unternehmen behaupten, ihre Kunden bereits gut zu kennen. 95% sammeln hierzu Kunden-Feedback. Davon informieren aber nur 50% ihr Team, nur 30% treffen Entscheidungen aus Umfragen und letztendlich setzten nur 10% die Insights auch um oder verbessern etwas. Am Ende infomieren auch nur 5% ihre Kunden über die umgesetzten Maßnahmen.

Wo liegt das Problem? Viele Umfragen stellen von vornherein die falschen Fragen. Ask the right question at the right time. Es bringt auch nichts, Fragen zu stellen, die die Zukunft betreffen (Würden sie etwas kaufen, wenn wir das oder dieses umsetzten?). Die Zukunft kann man nicht vorhersehen. Es müssen konkrete Fragen und gestellt werden und nicht nach Meinungen gefragt werden, um konkrete Antwort zu erhalten, die man verarbeiten kann.

Karl machte einen Test mit dem Publikum und fragte, welche der Seiten von Carglass besser abschnitt:

SMX 2019 Karl Gillis Keynote 2

© SMX 2019 Karl Gillis

Das Publikum tendierte zu 97% zum Layout mit wenig Text und lag dabei komplett falsch. Der Grund: Man beachtet nicht, was der User wirklich will. Das linke Beispiel geht hingegen genau auf die Bedürfnisse des Users ein und beantwortet direkt mögliche Fragen.

Wie oft wir falsch liegen, zeigte Karl auch an aktuellen Google Ads Anzeigen zum Thema „Carport kaufen“:

Hier wird oft auf Vorteile des Unternehmens oder Produkts eingegangen wie z.B. aus Polykarbonat. Aber keine Anzeige geht auf den User ein. In einer Umfrage wurden potentielle Kunden gefragt, warum sie ein Carport kaufen möchten. Die Antworten spielen sich nicht in den Ads wieder, z.B. bei Regen nicht nass werden, da man von der Haustür direkt an das Auto kommt.

Als gutes Beispiel nannte Karl booking.com. Hier sprechen alle Inhalte den User an „You“ und nicht die Sicht des Unternehmens:

SMX 2019 Karl Gillis Keynote 6

© SMX 2019 Karl Gillis

Karl sagte, dass er den Untergang vieler großer Unternehmen nicht in der Digitalisierung sieht. Viele große Unternehmen sind in den letzten Jahren pleite gegangen oder haben sich verkleinert. Allerdings sind viele Unternehmen auch schon vor den 80er Jahren und somit dem Zeitalter des Internets in den Ruin gegangen, da man den User nicht mehr in den Fokus gestellt hat. Als Bespiel nannte Karl das Unternehmen Kodak, das früher berühmt für seine Bilder war und dann denn Anschluss an digitale Kameras verpasst hat.

stopp selling the way you want to sell. Sell the way people want to buy.

SEO Fight Club – Marcus Tandler & Gäste

Auf der SMX München 2019 stellt Marcus Tandler ein neues Format vor: Den SEO Fight Club. Hier battelten sich seine Gäste zu den Themen AMP, PWA und Linkbuilding. Zuerst wurde das Publikum gefragt ob es du dem jeweiligen Thema pro oder contra steht. Dann trugen die Referenten ihre Argumente vor und das Publikum durfte erneut abstimmen.
Contra AMP: Barry Adams
  • Google owns AMP: Zwar ist AMP Open Source, aber 90% des Codes kamen 2018 von Google Mitarbeitern. Damit gibt Google den Standard bei AMP vor.
  • Warum forciert Google AMP? Mobile wird aktuell hauptsächlich für Suchen genutzt. Mit Apps hingen interagieren die User. Google ist allerding eine Web Company und keine App Company. Da Google daher aus Apps kaum Daten erfassen kann, soll AMP Abhilfe schaffen. Durch den Ausbau von AMP weiß Google, was du tust.
  • AMP ist nicht schneller als optimierte mobile Websiten.
    • AMP fühlt sich nur schneller an, da Google AMP selbst hostet und cached. User bekommen also eine vorgecachte Version einer Seite angezeigt

Sein Fazit: Fuck Google AMP

Pro AMP: Tomek Rudzki

  • Social Proof: über 30 Mio. Seiten nutzen AMP. Darunter große Unternehmen wie BMW, BBC News.
  • Es gibt viele gute Case Studies zu AMP, z.B. von BMW: AMP ist 3-4mal schneller, erzielt eine 30% höhere CTR und führt zu 26% mehr mobilen Usern.
  • AMP ist schnell. Das AMP vom Google Cache abgerufen wird, sieht Tomek positiv. Was am Ende nämlich zählt, ist dass die Seiten schnell für User sind.
  • Für Publisher gibt es keine andere Option. Schlagzeilen im Google News-Caroussel stammen in der Regel von AMP-Seiten. Und über dieses Caroussel machen Publisher viel Umsatz
  • AMP ist einfach zu implementieren. Es gibt auch viele fertige Plugin, z.B. für WordPress

Nach Abstimmung des Publikums ging die Runde an Barry Adams

Pro PWA: Nicola Stott

  • PWAs sind die perfekte Mischung: Webseiten mit einer User Expierence wie Native Apps
  • Speed: PWA ist schnell. Das führt zu mehr Umsatz und weniger Absprüngen
  • Availability: PWA funktioniert auch offline. Das führe in einem Cases zu 67 mehr Offline-Nutzung
  • Expierence: PWA können vieles, was Native Apps auch können, z.B. Push Notifications, Add to Homescreen

Contra: Izzi Smith
Izzi führte ihre Beispiele anhand von Sixt vor, die eine Native App nutzen und auf PWA verzichten

  • PWA ist nicht für jedes Business geeignet. Besser sind eine reponsive Website und eine Native App.
  • PWA ist nicht mit jedem Browser kompatibel.
  • PWA sind kaum bekannt. Viele User wissen gar nicht, was PWAs können, z.B. Kamerafunktion nutzen.
  • Viele Funktionen wie Bluetooth und GEO-Fencing gehen nicht.
  • Native Apps müssen einzeln für die App Stores von Apple und Android erstellt werden. Das bietet den jeweiligen Apple bzw. Android Nutzern eine bessere UX.
  • PWA ist nicht so schnell wie viele denken.
  • No Social Proof: User suchen im App Store nach Apps. PWAs können nicht wie Apps im App Store bewertet und kommentiert werden

Am Ende war Izzi Smith der klare Sieger und konnte viele Leute aus dem Publikum überzeugen, die zuvor Pro PWA waren.

Pro Linkbuliding: Dan Petrovic

  • Links sind wie PR
  • Linkaufbau ist old school, funktioniert aber immer noch
  • Gute Links bringen Traffic (siehe Anaylitcs). Traffic ist viel wichtiger als andere Werte wie TrustFlow oder Domain Authority
  • Guter Content und Links lassen sich perfekt verbinden. Wenn guter Content allein schon natürlich Links erhält, dann ist Linkbuilding für diesen Content einfach und führt zu einem noch höheren Uplift.
  • Richtig gute Links sind nur schwer aufzubauen, aber dafür sehr wertvoll (von einfach Links und Spam sollte man ohnehin die Finger lassen)
  • Links müssen natürlich sein

Contra Linkbuilding: Marcus Tandler

  • Linkbuilding is dead and outdated
  • Linkaufbau wurde zu oft von SEOs ausgenutzt, was zu Spam in Branchenbüchern und Bookmarks geführt hat.
  • Das Einzige was zählt ist Traffic. Links, die keinen Traffic bringen, sind wertlos. Qualität vor Quantität.
  • Linkaufbau ist laut Google verboten und damit gefährlich
  • Links alleine bringen nichts. Links können eine Seite vielleicht in die Top10 bringen, aber das ist nur eine Chance. Wenn UX und Content nicht stimmen, dann wird sich die Seite nicht in der Top10 halten.
  • Fokus sollte daher auf Link Earning durch gute Inhalte liegen.

Die Meinung des Publikums zum Thema Linkbuilding hat sich nach dem Battle nicht geändert und lag wie bei der Vorab-Umfrage bei etwa 38% pro und 62% contra.

Unterwegs im Google Shopping Universum: die richtige Strategie vom Shop über das Merchant Center zu Google Ads bis hin zum User

Von der Otto Group präsentierte Sven Achterberg interne Cases und Insights zum Thema Shopping. Die Otto Group arbeitet im Bereich Shopping mit einem CSS Partner. Dabei werden die Kampagnen im Otto Konto einfach gespiegelt.

Mit der 1:1 Strategie konnten bisher sehr gute Ergebnisse erzielt werden. Mit gleichem Budgeteinsatz konnten die Reichweite stark geseigert werden, da der durchschnittliche CPC bei CSS viel geringer ist als bei GSE.

performance-css-shopping

© SMX 2019 Sven Achterberg

Bei CSS Partner ist auf jeden Fall darauf zu achten, dass man immer selbst die Kontrolle über sein Merchant Center hat und die Kampagnen hat, sagt Sven Achterberg.

Die Otto Group hat ebenfalls gute Erfahrung mit Showcase Ads gemacht und zeigt Cases mit unterschiedlichen Strategien. Auch bei Showcase Ads gilt „Je granularer die Anzeigen, desto besser die Conv.-Rate“.

Von Mobile First zu AI-First – SEO heute! (Philipp Klöckner, External Search Consultant bei Rocket Internet)

Wohin geht die Reise im SEO? Dieser Frage widmete sich Philipp Klöckner. Hier der Recap zu seinem Vortrag:

Google hat bereits 2017 verkündet, dass sie eine „AI first“ Company sind. Deshalb wird es Zeit umzudenken. Waren früher Bereiche wie Content, Links und SEO Technik entscheiden, spielt die User Experience heute die entscheidende Rolle. Es ist auch weiterhin wichtig, seine SEO-Hausaufgaben zu machen, ohne den Fokus auf den User zu lenken, gewinnt man jedoch nicht den Kampf um Platz eins:

Wie optimiert man auf User-Experience?

  • Entscheidend sind Short Clicks bzw. Long Clicks. Bleibt der User auf einer Seite oder gekehrt er direkt zu Google zurück? Letzteres ist ein schlechtes Signal für Google
  • Time on Site ist einer der wichtigsten Rankingfaktoren. hierzu braucht man gute Inhalte und eine gute Usability
  • Time on site sollte täglich gemessen und gespeichert werden, um einen Trend zu erkennen. Für Philipp ist das wichtiger als andere Metriken, wie z.B. die Sichtbarkeit
  • Zu einer guten Usability zählen z.B. eine gute Navigation, eine schnelle Suchfunktion, Content mit Mehrwert, schnelle Ladezeiten, Brand und Trust

Seine SMX Präsentation findet ihr hier.

Experiment SEO Kannibalisierung (Jason Paget, Senior Product Owner – SEO bei Booking.com / Ross Tavendale, Managing Director bei Type A Media)

Einen spannenden Vortrag aus der Praxis hielt Jason Paget. Er machte mehrere Tests zur Keyword Kannibalisierung. Booking.com rankt oft mit dem gleichen Keyword mehrmals auf Seite eins bei Google, zum Beispiel auf Position 2 und 8. Für einen Test stellte er die Hypothese auf, dass Keyword Kannibalisierung schlecht ist, da dadurch Suchmaschinen verwirrt werden. Kombiniert man die Autorität unterschiedlicher Seiten, die für die gleiche Suchanfrage ranken, wird man noch besser gerankt.

Das Experiment muss datengetrieben durchgeführt werden. Bei booking.com gab es mehrere Suchergebnis-Seiten und Landingpages, die für die gleiche Suchanfrage ranken. Dann wurden von den rankenden Suchergebnis-Seiten Canonicals auf die Landingpages gesetzt. Resultat:

  • Google folgte den Canonicals. Der Traffic der Suchergebnis-Seiten dadurch sank rapide, da diese aus den SERPs entfernt wurden.
  • Der Traffic der Landingpages stieg dadurch, aber deutlich langsamer.
  • Insgesamt sank bei dem Experiment der gesamte Traffic (Suchergebnis + Landingpages)

Fazit: Für booking.com ist es besser mit zwei Seiten für die gleiche Suchanfrage in der Top10 bei Google zu ranken, als nur mit einer starken. Ob das auch für andere Domains gilt, sollte jeder für sich selbst testen.

Wie kann ich herausfinden, ob ich von Keyword Kannibalisierung betroffen bin und das Problem lösen? Dieser Frage ging Ross Tavendale nach. Sein Tipp: Google Natural language Processing. Zuerst werden die Daten aus der Google Search Console geholt und in Google Sheets aufgearbeitet, um zu sehen, wie viele URLs für genau die gleiche Suchanfrage ranken. Dann werden hier via Api die Daten zu Natural Language importiert. Über Natural Language werden die Inhalte auf der jeweiligen URL untersucht und die Terme extrahiert. Für jede dieser URLs erhält man so die wichtigsten Terme. Jetzt wird geprüft, ob die Terme bei diesen URls gleich sind oder nicht. Beispiel: Bei ale beer, ist der Hauptterm „ale“, bei beer glass hingegen „glass“. Der Inhalt der muss jetzt auf seine eigenen Terme optimiert werden, indem der Haupt-Term (=Keyword) zum Beispiel auf der Seite öfters verwendet wird. So stehen diese Seiten nicht mehr in Konkurrenz zur Übersichtsseite zu beer.

Google SEO/SEA – ein starkes, aber viel zu wenig genutztes Tool im „War for Talents“ (Markus Hövener, Geschäftsführender Gesellschafter bei Bloofusion / Tristan Niewöhner, Gründer und Geschäftsführer von persomatch)

Markus Hövener brachte es auf den Punkt: Bei Karriereseiten sind die gleichen Maßstäbe für SEO anzusetzen, wie bei anderen Landingpages auch: sprechende URLs, die richtigen Keywords, passende Meta Daten und gute Links. Und natürlich müssen die Stellenanzeigen crawl- und indexierbar sein. Für die Auswahl der richtigen Keywords muss das Suchverhalten der potentiellen Kandidaten analysiert werden

  • Vollzeit, Teilzeit
  • Ausbildung, Praktikum, Trainee-Programm, Werkstudent
  • Jahreszahlen (z.B. Ausbildungsplätze 2020)
  • Lokaler Bezug. Viele suchen regional, z.B. München, Berlin, Frankfurt, aber auch konkrete Stadtteile oder Ausland
  • Fachbereich, Branche, z.B. trainee marketing lebensmittel

Alle Cluster müssen dann kombiniert werden, z.B. zu werkstudent berlin bauingenierwesen, ausbildungsplatz erzieher berlin 2020.

Werden Stellen auf Jobportalen geteilt, sollte immer auch ein Links zur Stellenanzeige auf der eigenen Domain gesetzt werden.

Seine Tipps: keine ausgefallen Titel für Jobpositionen verwenden. die User suchen das was sie kennen. Stellenanzeigen sollten immer online bleiben. Eine Anzeige für Weihnachtsmarkt-Aushilfen wird nächstes Jahr auch wieder aktuell. Zudem sollen Stellenanzeigen und auf der eigenen Domain platziert werden, anstatt auf Subdomains ausgelagert zu werden. Stellenanzeigen über strukturierte Daten auszeichnen. Nicht nur auf die Google Suche konzentrieren: über Youtube lassen sich auch Kandidaten ansprechen.

Hier geht es zu seiner Präsentation: bloo.link/smx19hr

Tristan Niewöhner zeigt einige Keywords aus unterschiedlichen Branchen die sehr hohes Suchvolumen bei Stellenangeboten haben und oft zur Bewerbung der eigenen Stellen nicht genutzt werden.

Vor allem Phrasen wie, „Job ab 50“ wird sehr oft gesucht, aber in Anzeigen oder Stellenangeboten nie in der Vordergrund gestellt.

Wichtig bei der Schaltung von Anzeigen im SEA ist auch die geografische Ausrichtung. Im Vergleich zu Jobportalen bietet SEA den Vorteil die Stellenangebote nur in einem gewissen geografischen Umkreis zu schalten. Bei Jobportalen ist immer nur deutschlandweit möglich. Und die wenigsten sind bereit den Wohnort zu ändern, erklärt Tristan Niewöhner.

Google Jobs ist seit ein paar Tagen als Beta in Deutschland verfügbar. Google will sich auch künftig als Jobportal in den Google Suchergebnissen präsenter platzieren. Daher sollten Unternehmen künftig mit schema.org die Jobanzeigen entsprechend auszuzeichnen, um auch bei Google Jobs präsent zu sein und die richtigen Leute anzusprechen.

Google Search Console – Jenseits der Basics (Stephan Walcher, Team Lead SEO Consulting bei One Advertising)

Jeder SEO kommt bei der Arbeit mit der Google Search Console nicht herum. Es gibt kein anderes Tool, dass so viele Informationen zu Suchanfragen und Traffic über die organische Suche liefert. Marcus Tandler hat hierzu auf Medium einen Artikel veröffentlicht, bei dem Daten aus SEO Tools mit den Daten aus der GSC verglichen werden. Die GSC ging bei diesem Vergleich als Sieger hervor. Google stellt immer mehr Informationen bereit. Früher konnten nur Daten der letzten 90 Tage analysiert werden. Mittlerweile liefert die GSC Daten aus 16 Monaten. Das macht endlich auch Vorjahres-Vergleiche möglich.

Leider stößt die Suchanalyse in der Google Search Console trotzdem an ihre Grenzen:

  • Pro Analyse-Funktion lässt sich nur ein Filter setzten, sodass granulare Analysen nur schwer möglich sind.
  • Mehrere eigene Domains können nicht verglichen werden.
  • Verzeichnisse können nicht untereinander verglichen werden.
  • Ein Vergleich zwischen Brand-Keywords vs. Non-Brand-Keywords ist nicht möglich.
  • Die Daten in der GSC haben eine Verzögerung von 3 Tagen.
  • Man kann keine Keywords clustern.
  • Über die GSC Oberfläche lassen sich keine Trends erkennen.
  • Beim Export können nur 1.000 Zeilen gezogen werden. Bei größeren Seiten ist das nur ein kleiner Prozentsatz aller Daten.

Wie man diese Probleme umgehen kann, zeigte Stephan Walcher ganz praxisnah anhand des Google Data Studios. Über Die GSC-API lassen sich 100 Mio. Queries pro Tag ziehen. Die Api kann einfach über den GSC Connector mit dem Google Data Studio verbunden werden. Das funktioniert auch für Nicht-Programmierer ganz einfach. Das Google Data Studio liefert viele fertige Dashboards für die Google Search Console. Mit ein wenig Regex-Kenntnissen lassen sich auch einfach eigene Dashboards erstellen. Data Studio kennt kein Limit von 1.000 Zeilen beim Export; so können alle Daten einfach exportiert und weiterverarbeitet werden. Zudem löst die Analyse über das Data Studio die oben genannten Probleme und ermöglicht deutlich mehr Analysen und Vergleiche. Das Beste: man kann alles kombinieren und untereinander vergleichen, z.B. unterschiedliche Verzeichnisse. Es ist auch möglich alle Suchanfragen mit W-Fragen zu clustern, um dann zu prüfen, ob diese auf der eigenen Seite schon beantwortet werden, oder man hier noch etwas optimieren kann.

Tipp

Vorsicht pro aggregierten Werten und Dimensionen bei den Analysen. Alle Daten müssen gefiltert werden, um keine Durchschnittswerte zu erhalten. Die Position eines Keywords ist z.B. abhängig von

  • Land
  • URL
  • Suchtyp wie Web, Image, Video
  • Geräte (Dektop oder Mobile)
  • Tag (pro Tag gibt es z.B. ein anderes Ranking)

Um alle Vorschläge von Stephan direkt in der Praxis auszuprobieren, können die fertigen Dashboards unter bit.ly/smx2019 abgerufen werden.

Zeit die Silos hinter sich zu lassen: Next Level B2B SEA

Modernes Marketing im B2B hat einen Name „Inbound Marketing“. Die Customer Journey im B2B wird immer komplexer, immer mehr Touchpoints kommen hinzu. Kunden vergleichen, informieren sich. Es kann Tage oder Wochen dauern, bis sich ein User für ein Produkt oder Dienstleistung entscheidend. Umso wichtiger ist es, dass man ihn auf dem Weg zum Kauf unterstützt und als Unternehmen berät. Und das in Form von unterschiedlichen Contentarten.

Die Strategie wird dabei ähnlich wie das AIDA Prinzip aufgebaut. Die Stratgie von morefire heißt See – think – Do – Care.

See-Think-do-care

© SMX 2019 Robin Heintze

Tools wie Hubspot können dabei helfen, User zu verfolgen und sie im richtigen Moment mit den richtigen Inhalten anzusprechen. SEO und SEA, Social, E-Mail udn auch der Vertrieb müssen ihre Marketing Maßnahmen stark verzahnen, um im harten B2B Umfeld bestehen zu können. Dieser Vortrag liefert konkrete Beispiele von morefire für die richtige Strategie und Taktik, um sich mit SEA und anderen Marketing-Kanälen als entscheidende Anlaufstelle für Nutzer zu positionieren und die Lead-Maschine anzuwerfen.

Unser Fazit zur SMX 2019

Daten, Daten, Daten. Eins war auf der SMX München 2019 omnipräsent: AI, Machine Learning und Data Sience. Das sind alles Themen, mit denen sich Marketer beschäftigen müssen, um weiterhin erfolgreich zu bleiben. Excel-Reports zu erstellen und hin- und herzuschieben reicht heute nicht. Ohne gute Tools funktioniert erfolgreiches Marketing nicht mehr. Um Google zu verstehen, muss man Daten analysieren können und sich mit Machine Learning auseinandersetzen. es gibt einfach zu viele Faktoren, die ein Mensch alleine nicht in einer humanen Zeitspanne erfassen kann. Hier schaffen Programmatic Solutions Abhilfe. Trotz Daten darf eins nie vergessen werden: der User steht heute klar im Fokus. Wer die Ängste und Bedürfnisse seiner Zielgruppe nicht kennt wie seine Westentasche wird nicht mehr erfolgreich sein.

Kostenloser SEO-Check der OSG

SMX 2019 Recap
5 (100%) 21 votes


Ähnliche Beiträge


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*