SMX 2019 Recap

Recap SMX München 2019

Copyright © OSG


Am 02. und 03. April 2019 öffnete wieder die SMX München, Deutschland größte Konferenz für Suchmarketing mit Fokus auf SEO und SEA, ihre Pforten für Fachbesucher. Dieses Jahr stand das Konferenzprogramm unter dem Motto “Game of Thrones” – wer gewinnt im Online Marketing? Mit von der Partie waren wieder internationale und bekannte Speaker aus dem Online Marketing. Bevor es um das Fachliche geht, müssen wir das Catering loben – wie jedes Jahr lies das auch 2019 keine Wünsche offen. Leckere Kaffeespezialitäten, Smoothies, diverse orientalische, italienische Gerichte sowie Sushi, Bowls und Snacks versüßten uns den Tag neben fachlichen Input.

Inhaltsverzeichnis

Eröffnung und Keynote. Die vier Reiter der Web-Marketing-Apokalypse (Rand Fishkin, ehemals CEO bei Moz, Founder von SparkToro

Den Start machte wie schon letztes Jahr Rand Fishkin mit einer überragenden Keynote. Rand Fishkin ist ein Meister der Bühne und schafft es mit seiner lockeren Art ernste Probleme anzusprechen. In seinem Vortrag zeigt er die vier Reiter der Web-Marketing Apokalypse, die einen Wandel im Online Marketing herbeiführen.  Trotz der Untergangsstimmung hatte er natürlich auch einige Tipps bereit auch 2019 erfolgreich im Internet zu sein.

Der Traffic über Links aus sozialen Plattformen sinkt seit 2016 kontinuierlich. Twitter, Facebook, LinkedIn & Co tun alles daran, User auf der eigenen Seite zu halten. Bei Instagram ist das vielen schon bekannt – hier gibt es bereits kaum Möglichkeiten aus Posts rauszuverlinken. Dies führt so weit, das heute z.B. auch bei Twitter Tweets weniger Interessenten erreichen, wenn darin ausgehende Links eingebettet sind, da diese durch den eigenen Algorithmus herabgestuft werden. Letztendlich führt das zu weniger Traffic über Social Media.
Auch über Google wird immer weniger Traffic generiert. Trotzdem bleibt der Suchmaschinenriese die Traffic-Quelle Nr.1:

SMX 2019 Rand Fishkin Keynote 1

© SMX 2019 Rand Fishkin / Slideshare

Google setzt vieles daran, Suchanfragen der User sofort zu beantworten, ohne dass ein weiterer Klick getätigt werden muss. Während auf Desktop-Suchen die Welt noch rosig aussieht, werden über Mobile kaum noch Organic Klicks erzielt. Der Paid-Anteil liegt bei Desktop bei etwa 5,6%, SEO bei noch stolzen 65,6%. Bei Mobile liegt Paid bei 8,7% und SEO nur noch bei etwa 36,7%. Der No-Clicks-Anteil auf Desktop beträgt 34,4%, auf Mobile bereits schon 54,4% (Daten aus US, September 2018). Durch angereicherte Suchergebnisse sind Suchen bei denen kein weiterer Klick mehr nötig ist, in den letzten Jahren um 30% gestiegen – Tendenz weiter steigend. Google versucht den Usern möglichst alle Antworten schon direkt zu liefern, damit sinkt auch die CTR im SEO.

Influencer Marketing ist in vielen Ländern sehr populär – auch in Deutschland. Allerdings erzielt dieser Markt immer weniger Profit. Zum Teil gibt es hier einfach keine Messewerte, die Unternehmen ansetzten um ihren ROI zu prüfen. Man verlässt sich zu oft blindlings auf Influencer Marketing. Rand zitiert hier einen Influencer, der regelmäßig für Brands arbeitet, aber weniger als 50% der Unternehmen erkunden sich nach dem Erfolg und dem Ausgang der Kampagnen. Zum anderen tragen die steigenden Zahlen an Fake-Profilen und Fake-Followern dazu bei, dass der Markt verwässert wird und weniger qualitativen Traffic bringt. Influencer Marketing schöpft das Potential nicht aus, anstatt alle relevanten Kanäle zu nutzen, konzentrieren sich zu viele nur auf Youtube und Instagram. Dabei ist die Zielgruppe auch auf oder über Blogs, Twitter, Radio, Events, Facebook-Gruppen und vieles mehr zu erreichen.
Der Web-advertising ROI sinkt gegen null. Viele große Unternehmen investieren viel Geld in bezahlte Kampagnen mit dem Ziel mehr User zu generieren – die Kosten-Umsatz-Relation spielt für diese Unternehmen keine Rolle. Das macht es anderen Unternehmen schwer, zu angemessenen Klickpreisen noch Profit zu erzielen. Kurz gesagt: die Kosten gehen hoch, der ROI runter.

Was können wir dagegen tun? Die Devise von Rand lautet: Back to the roots. Wir müssen uns darauf konzentrieren, was wir schon vor Jahren im Fokus hatten, nämlich unsere eigene Website.

SMX 2019 Rand Fishkin Keynote 1

© SMX 2019 Rand Fishkin / Slideshare

Die Website und eigene Email-Listen sind Dreh- und Angelpunkt aller Aktivitäten. 10 neue Email-User sind z.B. mehr wert wie 10.000 Follower. Im SEO müssen wir aufhören nur nach Suchvolumen zu optimieren, entscheidend ist das Klick-Volumen, das erreicht werden kann. Hier bieten Suchanfragen mit geringerem Suchvolumen oft besseres Potential.

e-mail-marketing

© SMX 2019 Rand Fishkin / Slideshare

Alle Optimierungen, die gemacht werden sind vielleicht nicht von Anfang an erfolgreich, dann aber ein Selbstläufer. Rand vergleicht diese Aktivitäten mit einem Schwungrad, das beim zweiten oder dritten Dreh an Schwungkraft gewinnt. Das beginnt beim Content Marketing und gilt genauso für Ad Kampagnen. Ein optimales Schwungrad funktioniert nach Rand so:

SMX 2019 Rand Fishkin Keynote 3

© SMX 2019 Rand Fishkin / Slideshare

Wisse wo deine Zielgruppe ist: Instagram und Youtube reichen nicht. Man muss weitere Content-Formate und Medien nutzen und die richtigen Quellen anhand Daten analysieren.

Inhalte in sozialen Beiträgen müssen für User attraktiv sein, um mehr Reichweite zu erzielen. Die Algorithmen der Social Media Plattformen stufen nach einem werblichen Beitrag auch alle weiteren Beiträge schlechter ein und umgekehrt. Dieses System kann man aber auch für sich nutzen: gute, nicht-kommerzielle Beiträge erstellen, die zu mehr Engagement führen, um die nötige Reichweite aufzubauen. Dann kann ein Inhalt mit ausgehendem Link oder Werbung erstellt werden. Drauf folgend müssen wieder informative, nicht-kommerzielle Inhalt gepostet werden.

Man muss Content erstellen, der einen hohen potentiellen Outreach erzeugt. Dieser Content deckt Themen ab, der die Schnittstelle zwischen dem, was Kunden bewegt und dem, was Kunden beeinflusst, bildet:

SMX 2019 Rand Fishkin Keynote 4

© SMX 2019 Rand Fishkin / Slideshare

Am Ende kann via Paid Media die Zielgruppe noch einmal angesprochen werden.

Key Learnings

Als Erstes müssen Organic und Brand optimiert werden, dann erst Ads und CRO. Ohne gutes SEO und Branding sind Klickkosten bei Ads kaum noch tragbar.

Die ganze Präsentation zu Keynote auf der SMX 2019 gibt es hier: https://www.slideshare.net/randfish/the-next-era-of-web-marketing-2019-beyond

Schnell ist zu langsam: Einmal um die Welt und das in Höchstgeschwindigkeit (Martin Splitt, Webmaster Trends Analyst / Bartosz Góralewicz, CEO bei Onely)

Ursprünglich war für diesen Track Tobias Fox, CEO bei VERDURE Medienteam GmbH eingeplant. Martin Splitt ist kurzfristig für ihn eingesprungen. In seinem Track ging es technisch zu Sache und um die elementaren Punkte rund um JavaScript:

  • Was passiert beim Rendering?
  • Was hat JavaScript damit zu tun?
  • Nicht jedes JavaScript ist gleich
  • JavaScript on mobile

Zuerst erklärte Martin Splitt kurz das Grundgerüst des Renderns. HTML und CSS sind das Skelett einer Seite; sie geben z.B. die Größen von Bildern vor. HTML und CSS wird geparst daraus entsteht ein Document Objecte Model (DOM) bzw. CSS Objecte Modell anhand deren letztendlich das Layout einer Seite erstellt wird.

Mit JavaScript wird das ganze schon komplizierter. JavaScript greift in viele Bereiche einer Website ein, z.B. auch schon in CSS. Damit beginnt der CSS-Kreislauf vom Parsen bis zur Anzeige der Website oft von vorne, was sich negativ auf die Ladezeiten auswirken kann. Bei diesen Prozessen bemängelt Martin, dass mit JavaScript oft nicht sauber umgegangen wird:

  • JavaScript nimmt oft unkomprimiert 1 MB in Anspruch, das ist schlecht für die Ladezeit
  • JavaScript hat oft massive Auswirkungen auf das CSS einer Seite – oft wird dann aber der Designer bzw. Entwickler des CSS als Buhmann dargestellt. Ein guter JavaScript Programmierer muss daher auch Kenntnisse in CSS haben und umgekehrt, sonst wird bei der Optimierung an den falschen Stellen geschraubt.

Beim Rendering von JavaScript gibt es unterschiedliche Methoden:

SMX 2019 Martin Splitt JavaScript Rendering

© OSG / SMX 2019 Martin Splitt

An einem Case zeigt Martin, dass ein Client Side Rendering von JavaScript zu einer schlechteren Performance führt. Seine klare Empfehlung: Hybrid Rendering, eine Mischung aus client- und serverseitigem Rendering.

Tipp

Auf Youtube hat Martin Splitt eine eigene Google-Serie zu JavaScript SEO. Hier erklärt er in kurzen Videos wie Google JavaScript indexiert und was dabei zu beachten ist.

Die Präsentation von Martin Splitt gibt es hier: Web Performance Wildness

Weiter ging es beim Vortrag von Bartosz Góralewicz darum, wie JavaScript das mobile Laden auf unterschiedlichen Smartphones beeinflusst. Dabei ging auf den Artikel „The cost of JavaScript in 2018“ von Addy Osmani ein. In diesem wird das Motorola G4 als das meistgenutzte Smartphone vorgestellt, an dem sich Programmierer orientieren sollen. Bartosz stellte jedoch fest, dass die Datengrundlage von Addy Osmani falsch ist, da sich die Daten nicht auf das Jahr 2018, sondern 2016 beziehen. Der Smartphone-Markt entwickelt sich rasant weiter und das Motorola G4 kann daher nicht als Benchmark dienen. Leider benutzten viele Entwickler dieses Modell weiterhin als Grundlage für die Optimierung.

Bartosz machte in paar Test auf unterschiedlichen Devices, die zeigen, dass es extreme Unterschiede beim Laden gibt:

Dabei erzählte er aus dem Nähkästchen lustig, wie schwierig und absurd es ist, an manche alten Smartphones zu kommen. Am Ende konnte er ein gebrauchtes Motorola G4 in den Händen halten – zum Preis von nur 35 Euro.

Auf welchen Device soll man nun letztendlich optimieren? Globe Ansätze bringen für Bartosz nichts. Deshalb wertete er die Situation in Deutschland aus:

  • Zu 98% gibt es in DE bereits 4G (das ist deutlich mehr als im globalen Kontext – auch wenn sich in Deutschland viele über die Netzgeschwindigkeit beschweren)
  • Laut Google Analytics Zahlen gehört mit 38% das Iphone zu den Top-Devices
    • Davon 60% Iphone 7 oder höher
    • Davon 90% Iphone & oder höher
  • Das Motorola G4 spielt in Deutschland keine bedeutende Rolle

Sein Benchmark für Deutschland: „Das Iphone 9“ – eine Mischung aus Iphone 8 und X.

Weiter ging Bartosz auf die verschärfte Wettbewerbssituation in Deutschland ein: wir haben hier oft bessere SEOs, Programmierer und damit auch schnellere Webseiten. Speed matters, deshalb muss man sich jeweils die beste und schnellste Seite der eigenen Branche aussuchen und sich daran orientieren.  Ein gutes Beispiel ist Amazon, das bei einem seiner Tests sogar auf einem alten Motorola G4 die Seite Media Markt schlägt, die mit einem neuen Samsung Note 8 getestet worden ist.

Ein Punkt ist für ihn besonders wichtig: Website Performance ist ein Rankingfaktor. Ladezeitenoptimierung ohne Beachtung von JavaScript und dem Renderingprozess funktioniert nicht. Googlebot verwendet als User Agent immer noch Chrome 41 – es muss also sichergestellt werden, dass eine Seite auf allen Betriebssystemen und Handys schnell lädt. Das funktioniert ohne die richtigen Daten nicht.

Key Learnings

“design your website based on real data”


Die Präsentation zu diesem Recap gibt es hier: one.ly/smxmunich

6 Ansätze zur UX-Optimierung deiner E-Commerce Website (André Goldmann, Gründer und Inhaber vom Büro für gute Websites)

Der erste Vortrag im Bereich E-Commerce behandelt das Thema User Experience (UX) von André Goldmann, In 34 Cases werden wichtige Ansätze in der UX gezeigt. Wichtig dabei sind vor allem die Bereiche:

Spannende Learnings im Überblick:

  • Vertrauen schaffen – aber nicht nur auf der Startseite
  • Kategorien in den sichtbaren Bereich packen

Viele Shops nutzen große emotionale Bilder auf den Landingpages. Unterkategorien bzw. Filter zu spezifischen Kategorien an der Sidebar werden vom Nutzen oft übersehen und fangen an zu Scrollen. Als Beispiel wurde hier fahrrad.de genannt. Sucht der User z.B. ein Citybike findet er auf der Übersichtsseite nur E-Bikes oder Downhill Bikes. Was passiert? Der User verlässt die Seite klickt auf ein anderes Google Suchergebnis. Würde fahrrad.de das Headerbild verkeinern und mit größeren Buttons die einzelnen Fahrrad Arten mit Link zu den richtigen Landingpages platzieren, würde sich der User besser zurecht finden.

  • Produktbezogene Benachrichtigungen ermöglichen durch Preorder Funktion
  • Produkte geräteübergreifend gleich darstellen
  • Filter userfreundlicher gestalten und am Bedürfnis des Users ausrichten
  • Emotionen zählen: Generate Sexy Content

In den Cases wurden viele US Shops genannt, unter anderen B&H. Auch der deutsche Online Shop wayfair.de, wird häufig als Best-Practice bei einzelnen Elementen gezeigt.

Ob man es glauben will oder nicht, aber auch Amazon kam sehr häufig vor. Der Shop ist optisch vielleicht kein Schmuckstück, aber er orientiert sich zu 100% am Nutzer.

Predictive SEO (Sebastian Erlhofer, Geschäftsführer, mindshape GmbH)

Wie können SEOs datengetriebene Entscheidungen treffen? Damit beschäftigte sich Sebastian Erlhofer in seinem Vortrag. Predictive SEO bedeutet für ihn Daten zu nutzen, um Optimierungserfolge im SEO vorherzusagen. Ohne Predictive SEO können wir Google nur hinterherlaufen und werden abgehängt. Jeder der Inhouse oder in einer Agentur Suchmaschinenoptimierung betreibt, wird regelmäßig mit drei Fragen konfrontiert:

  • Was optimieren wir? Heute ist SEO sehr komplex und besteht nicht nur aus Onpage-Optimierung, Backlinks und Inhalten. Weitere relevante Bereiche sind z.B. Pagespeed, Technical SEO usw.
  • Wann optimiere ich was? Die Wahl der passenden Maßnahme zur richtigen Zeit ist entscheidend.
  • Wie intensiv und vollständig muss optimiert werden, um einen optimalen ROI zu erzielen?

Letzter Punkt ist kritisch, da es sich um eine Budget-Frage handelt. Die Kosten, die in SEO investiert werden, müssen sich letztendlich auch rechnen. Das Potential nur anhand des Status Quo zu berechnen, reicht dabei nicht. Heute muss man Daten nutzen, um Optimierungserfolge hervorzusehen und zu berechnen. Ohne Machine Learing funktioniert das nicht.

Warum und wie jeder SEO Machine Learning nutzen kann, zeigte Sebastian an einem Case. In diesem Szenario ging es darum eine CTR-Vorhersage für das Keyword “schuhe kaufen” zu treffen, wenn das Keyword von Position 8 auf Position 3 optimiert wird:

  • Schritt 1: Aktuelle CTR-Daten werden täglich via API aus der Google Search Console geholt. Berücksichtigt werden für diesen Test nur Daten mit mehr als 10 Klicks und Position 1-10.
  • Schritt 2: Via node.js werden aus Google weitere Infos gezogen, welche die CTR maßgeblich beeinflussen: Gibt es viele Ads, einen Bilder-Block oder Video-Box? Weitere Featured Snipptes? Angereicherte Ergebnisse führen dazu, dass der organische Treffer in den SERPs nach unten rutscht. Daher wird mit Pixeln die Höhe dieser Blöcke via node.js ausgewertet und berücksichtigt.
  • Schritt 3: Diese Daten aus den SERPs werden in JSON gespeichert.
  • Schritt 4: Jetzt müssen die Daten verarbeitet werden. Hierzu kann man die Daten in ein Machine Learing Programm reinladen, z.B. KNIME, Rapidminer, oder Python nutzen Diese Programme erstellen anhand unterschiedlichen Algorithmen eine Vorhersage.

Dieses Szenario ist vereinfacht dargestellt. Da Google z.B. vieles an der SERP-Darstellung ändert und testet, müssen die Daten mehrmals verfeinert werden, bis am Ende möglichst valide Daten vorhergesagt werden können. Die Daten aus der SERP-Zusammenstellung können dann wiederum vielfältig für Predictive SEO genutzt werden. Neben dem Potential anhand der CTR-Berechnung, lässt sich daraus z.B. auch beantworten, ob die rankenden URLs transaktional oder informatorisch sind.

Die Session war auf jeden Fall sehr spannend und zeigt deutlich, dass professionelles SEO auch Skills in Big Data, Machine Learning und Data Mining benötigt.

Online Ads: Was ist neu, was ist wichtig? Neue Ad Formate, Updates, Responsive Ads und mehr /Brad Geddes, Co-Founder von Adalysis / Navah Hopkins, Services Innovation Strategist bei WordStrea)

Brad Geddes und Navah Hopkins sprachen über die Unterschiede von RSA und ETAS. Wusstet ihr das ihr RSA und ETAS je nach Kampagnen oder Anzeigengruppen Ziel ausrichten sollt? Hier ein Überblick:

Studien zeigen, dass RSA Anzeigen eine bessere Klickrate aufweisen und genutzt werden sollten wenn das Ziel Traffic oder Bekanntheit ist.

ETAS hingegen haben zwar eine viel geringere Klickrate, aber eine deutlich bessere Conv.- Rate. Haben eure Kampagnen einen Conversion Fokus solltet ihr hauptsächlich ETAS nutzen.

eta-vs-rsa-anzeige

© SMX 2019 Brad Geddes

Wichtig ist jedoch, dass vor einer Umstellung immer alles wird, bevor man es für das gesamte Konto ausrollt.

What about Headlines?

Sieht man sich die Headlines in den Google Suchergebnissen an, wirken alle ziemlich langweilig. CTAs wie “Jetzt kaufen” oder “Hier Downloaden” haben ausgedient.

User Benefits und spezielle Features oder UPS sollten in die Headline rutschen und nicht mehr als Randinformation in einer Callout landen.

Call-to-Actions

© SMX 2019 Brad Geddes

Die Cases der Vortragenden zeigen dadurch deutliche Steigerung der Klickraten und Conversion Rates.

Weitere Tipps für bessere Klickraten

In Deutschland werden Fragewörter wie „Wie“ und „Was“ am Häufigsten gesucht. Fragen in der Headline können ebenfalls zu besseren Klickraten führen. Vor allem im B2B Bereich werden W-Fragen in Ads empfohlen.

schlecht-anzeigen

© SMX 2019 Navah Hopkins

Keynote: Diesmal wird es ernst: die Roboter kommen und alles wird sich ändern (Jim Sterne, Co-Founder and Board Chair, Digital Analytics Association)

Schon heute kommt Machine Learning & AI im Marketing zum Einsatz. Wie das funktioniert und was die Zukunft bringt, hat Jim Sterne auf den Punkt gebracht. Hier der Recap zu seiner Keynote auf der SMX München 2019:

Marketing heute, wird bald ein Relikt sein und in dieser Form nicht mehr geben. Das gilt für jede Branche, egal ob B2B oder B2C. Jim sprcht von einer C2B Welt, in der die Bots der Kunden mit den Bots der Unternehmen verhandeln.

Als erfolgreiches Beispiel für Machine Learning im Marketing nannte Jim das Programm Shopify Kit. Shopify ist ein Shopsystem, da mit Kit das Marketing für seine Kunden automatisiert. Anhand der Shopbesuche schlägt Kit zum Beispiel eigenständig Retargeting Kampagnen vor, um die Sales zu erhöhen. Anhand der Shop-Zahlen sind die Vorschläge sehr konkret, z.B. eine Retargeting Kampagne über 14 Tage mit einem Budget von 25 Dollar – Eine Preview der Ads für die Kampagne liefert Shopify Kit auch gleich mit. Alles was der Shopify Nutzer dann nur noch machen muss: ja oder nein klicken.

Dieses Beispiel führt ihn zum Thema “Convenience – Meaning to do Nothing”. Die Menschen mögen es bequem und Machine Learning verleiht uns, vor allem im Privatleben, diesen Lifestyle.

Hacking Google: Wer versteht, wie Hacker denken, verbessert sein SEO (Tom Anthony, Head of R&D, Distilled)

Tom Anthony zeigte in seiner Session einige seiner Google Hacks und wie leicht es war, den Ranking Algorithmus auszutricksen.

Im einem Case ging es um die Frage: Folgt Google einem Cross-Domain-Redirect einer Sitemap?

Eigentlich gibt Google vor, dass alle Urls einer Sitemap.XML auch zu der Domain gehören, welche die Sitemap einreicht. Die entsprechende Domain muss hierzu auch in der Google Search Console sein. Die Sitemap kann dann in die robots.txt eingefügt und in der Google Search Console hochgeladen werden. Was viele nicht wussten: Die Sitemap kann auch als Ping an Google übermittelt werden (siehe hierzu auch die Search Console Hilfe):

http://www.google.com/ping?sitemap=<complete_url_of_sitemap>
Beispiel:
http://www.google.com/ping?sitemap=https://example.com/sitemap.xml

Die Ping-Funktion nutzte Tim für seinen Hack:

SMX 2019 Tom Anthony 1

© SMX 2019 Tom Anthony

Für den Trick nutzt man am besten Open Redirects. Bei vielen Seiten werden diese im Logout (z.B. “domain.com/logout?”) genutzt. Über diese ungesicherten Redirects kann der Traffic zu einer fremden Seite abgeleitet werden. Auf den folgenden Slides, wurde z.B. die Domain jono.com gehackt, um den Traffic auf tom.com zu leiten. Es lässt sich aber auch ein Redirect auf die “falsche” Sitemap setzen (in diesem Beispiel tom.com/evil.xml).

Google hat die “falsche” Sitemap problemlos verarbeitet. Über die gleiche Vorgehensweise lassen sich auch Hreflang Tags ausnutzen, da diese oft in der Sitemap.xml übermittelt werden. Hierzu muss ein Open Redirect gefunden werden, dann kauft man sich eine Fake-Domain und scrapt den Inhalt der Original-Seite auf die Fake-Domain, bzw. setzt den Inhalt neu auf und erstellt eine Sitemap.xml. In diesem Bespiel hat Tom eine Fake-Sitemap gebastelt und Hreflang-Tags für eine fremdes Land angelegt. Dabei profitiert die Fake-Domain vom Trust der gehackten Seite. Hier das Beispiel:

PS: Tesco wurde nicht gehackt und ist nur ein erfundenes Beispiel. Den Hack hat Tom allerdings wirklich durchgeführt und dann an Google reported. Google hat ihm daraufhin einen Bonus gezahlt und die Sicherheitslücke geschlossen.

Key Learnings

Redirects können z.B. für eine Sitemap Manipulation ausgenutzt werden. Man muss daher sicherstellen, dass auf der eigenen Website keine Open Redirects genutzt werden. Können diese nicht entfernt werden, kann man sie über die robots.txt blockieren. Die eigenen Logs sollten auf 302 Redirects geprüft werden.

Nicht alle Sicherheitslücken, die Google bekannt sind, wurden beseitigt. ein großes Problem sind zum Besipiel XSS Attacken (XSS: Cross Site Scripting):

<div>
        Showing page <?=$_GET['page']?>
</div>

Ist das nicht sauber programmiert, lassen sich über diesen Code diverse Skripte einspeisen und ausführen.

Warum sind XSS Attacken so problematisch?

  • Der Googlebot verwendet weiterhin Chrome 41 als User Agent. Im Gegensatz zu neueren Versionen hat Chrome 41 keinen XSS Auditor, der solche Angriffe erkennt und unterbindet.
  • Der Googlebot kann JavaScript ausführen und indexieren. John Müller von Google hat auch bestätigt, dass Links gleich behandelt werden, egal ob es sich dabei um HTML- oder JavaScript-Links handelt.
  • Über XSS lassen sich JavaScript Links und Canonicals erstellen, die von Google indexiert werden

XSS Angriffe sind ein weit Verbreitetes Phänomen. Auf Seiten wie openbugbounty.org werden zahlreiche Fälle gelistet.

Auf jeden Fall war das ein sehr aufschlussreiche und spannende Session. Auch wenn die Szenarios Black Hat Methoden aufzeigen, für Tom Anthony war eins sehr wichtig: Think outside the box. Alle Lücken lassen sich genauso auch für White Hat SEO nutzen

Key Learnings

Den Schutz der eigenen Website muss man ernst nehmen und Hacker-Attacken über entsprechende Sicherheitslösungen abwehren. Viele Marketer haben das Thema Website Security noch nicht auf dem Schirm. Dabei können Hacker hier großen finanziellen Schaden einrichten.

Das Ende von Exact Match? Taktiken für negative Keyword Automatisierung in 2019 und danach (Christopher Gutknecht, Head of Online Marketing bei norisk)

Ein spannender Advanced Vortrag, der Tipps und Hilfsmittel zeigte, um das Handling mit Negative Exact zu vereinfachen. Unter https://www.slideshare.net/norisk findet Ihr auch den gesamten Vortrag.

Er zeigt die Keyword Problematik in großen Konto auf und dass es ohne Automatisierung im Bereich negative Keywords kaum mehr geht. Dazu erklärt Chriostopher Gutknecht, die einzelnen Strategien im Bereich Shopping, DSA und Search und stellt dazu tolle Skripte für die Automatisierung und einfacheres Handling für Negatives zu Verfügung. Die Skripte findet ihr hier: http://bit.ly/norisk_negatives

 

Search Queries

© SMX 2019 Christopher Gutknecht

 

Das Problem bei DSA und Search ist, dass die Search Queries sich oft in die Quere kommen und sich überlappen und dadurch der CPC höher ausfällt als nötig.

Mehr als 10 blaue Links: SERP-Optimierung auf fortgeschrittenem Niveau (Dan Petrovic, Director bei DEJAN Marketing)

In dieser Session Dan Petrovic vor, wie man seine Snippets für die SERPs optimiert, um höhere Klickraten zu erzielen. Google wird immer mehr zu einer Antwort-Maschine und will User auf der eigenen Seite halten. Featured Snippets und angereicherte Suchergebnisse machen es, schwer, über die Google Suche organische Klicks zu erzielen. Die Frage, die sich Marketer stellen müssen – Warum klickt niemand? Trotz des Wandels in der Darstellung der Suchergebnisse, kann man seine Snipptes optimieren. Das funktioniert nur, wenn man die User auch richtig anspricht. Hierzu hat Dan eine Studie erstellt und ausgewertet. Die Lösung lautet: Match, Trust, Rank. Dabei spielt der Inhalt des Snippets eine entscheidende Rolle. Das eigene Snippet muss zur Suchanfrage passen und die Nutzerintention befriedigen. Wir dürfen nicht nur für Google optimieren, sondern müssen bei Usern Emotionen wecken. Das klappt zum Beispiel, indem der Meta Titel und die Meta Description um Wörter ergänzt werden, die etwas beim User auslösen. Trust Wörter sind zum Beispiel: Award, bester(r), zertifiziert, vergleichen, clever, intelligent, Garantie, sicher usw. Der Brand spielt hierbei auch eine Rolle. Die ganze Liste an relevanten Wörtern gibt es hier: benedict.co.uk/research/trust-words.xlsx

Auf https://buffer.com/library/words-and-phrases-that-convert-ultimate-list gibt es zusätzlich eine Liste von 189 starken Wörtern, die Helfen User zu überzeugen und richtig anzusprechen.

Sein Fazit: Die Aufmerksamkeit der Leser erhält man nur, wenn man diese mit den richtigen Wörtern auf einem persönlichen Level anspricht.

Da viele Suchergebnisse mittlerweile gleich aussehen, empfiehlt Dan auch mal ungewöhnliche Methoden auszuprobieren, um sich besser abzuheben. Das können zum Beispiel bewusst kurze Snippets sein:

Letztendlich muss man zuerst seine Klickraten analysieren und testen. Hierfür stellt Dan Petrovic sein kostenloses Tool Algoroo zur Verfügung, das mit der Google Search Console verknüpft werden kann.

  • Anhand der GSC wird die Klickrate der Top10 analysiert
  • Anhand dieser Daten wird das Klick-Potential ausgewertet, das noch nicht genutzt wird
  • Die Top-Urls, die nicht die gewünschte Klickrate erzielen, müssen untersucht und optimiert werden
  • Bei der Optimierung ist allerdings zu beachten, dass die CTR-Verbesserung anhand der gleichen Position gemessen werden muss. Wenn sich die Position verbessert, steigt oft automatisch die CTR, dann wäre der Test nicht aussagekräftig. Am besten klappt das daher mir einer größeren Daten-Basis. Zum Beispiel werden die Produkte einer Shop-Kategorie getestet und 50% davon optimiert. Dann wird auf Positions-Ebene verglichen, ob sich die CTR verbessert hat. (Same Rank. More Clicks)

Die Präsentation inkl. Anleitung zum Testen gibt es hier: https://dejanseo.com.au/#smx

 

E-Mail Marketing der Zukunft und warum jeder Suchmarketer sich damit auskennen sollte

“Für einen eingesetzten Euro bekommt man 49 € Umsatz”! So startet Jenna Tiffany Ihren Vortrag zum Thema „Email Marketing der Zukunft und warum jeder Suchmarketer sich damit auskennen sollte“.

Auch dieser Vortrag war geprägt von AI. Am Beispiel von Domino´s wurde die Performance von Newsletter-Titel gezeigt. (Maschine vs. Human). Tools sind mittlerweile in der Lage auf die Zielgruppe angepasste Newsletter Titel zu erstellen, die zu besseren Klickraten führen. Besser als die, die Menschen erstellt wruden. Zudem wurden in diesem Case die Headlines auch für SEO Meta Title und die Title bei den Social Ads genutzt. In beiden Kanälen konnte eine Steigerung der Klickraten verzeichnet werden.

Weitere allgemeine Tipps für E-Mail Marketing waren:

  • Anmeldung zum Newsletter auf der Website prominent platzieren
  • Willkommens-Mail an neue Abonnenten senden
  • Personalisierung in Mails ist alles
  • Newsletter mit Mehrwert für die jeweiligen Zielgruppe senden

SEMY Präsentation der Nominierten, Abstimmung und Verleihung

In sechs Kurzpräsentationen konnte die Finalisten Ihre Cases in den Bereichen “Beste SEA Kampagne” und “Bestes Content Marketing Kampagne” präsentieren.

Die Gewinner des diesjährigen SEMY Awards im Bereich SEA ist Bloofusion. Bloofusion stellt Ihren Case mit dem Kunden Zumnorde vor. Durch ein super intelligentes Skript und smarten Kampagnen konnte die Agentur die Online als auch Offline Käufe stärken.

Die Gewinner im Bereich Beste SEO/Content Marketing Kampagne ist die UNIQ GmbH mit dem Case deutschalandLiebe by Urlaubsguru. Ziel war es die Urlaubsdestination Deutschland bei Urlaubsguru zu vermarkten. Mit einem großen Team, hunderten von Texten, Facebook Posts, Infografiken und Videos konnte die Kampagne erfolgreich am Markt platziert werden.

Migration: Best Practices und die spezifischen Herausforderungen bei M&A und dem Wechsel von Domain- und Markennamen (Bastian Grimm, Director Organic Search bei Peak Ace AG / Patrick Stox, Technical SEO bei IBM)

Der zweite Tag auf der SMX München 2019 startete mit einem ganz technischen Thema für uns: Ein relaunch mit allen Hürden und Potentialen. Es gibt viele Gründe für eine Migration, z.B.

  • Umstellung von Http auf https
  • Ein Serverwechsel
  • URL-Änderungen

Für jedes Projekt muss man sich einen Plan überlegen und eine Checkliste erstellen.

Pre-Migration

  • KPIs definieren, da sonst nicht mess

Kostenloser SEO-Check der OSG



Weitere Inhalte


Kommentare


Jörg N.

Jörg N. 5. Juni 2019 um 14:56

Wow, da habt ihr euch aber Mühe gegeben :) Danke für die tolle Zusammenfassung. Gruß Jörg

Antworten

Lucas Fehr

Lucas Fehr 6. Juni 2019 um 9:33

Hallo Jörg,

vielen Dank für dein tolles Feedback! Wir sind stets bemüht, die wichtigsten Learnings von derartigen Events an euch weiterzugeben. Was dich bestimmt auch interessieren könnte, ist unsere kostenfreie Online Solutions Day Event Reihe. Hier werden einmal im Monat in unserem Office in München die neusten Trend im Bereich Online Marketing vorgestellt. Informiere dich gerne hier und wir würden uns freuen, dich bald persönlich in unserem Office kennen lernen und begrüßen zu dürfen!

Grüße Lucas

Antworten

Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*