Was ist SEO? Grundlagen der Suchmaschinenoptimierung

Was ist SEO? Grundlagen der Suchmaschinen-Optimierung

Copyright © Shutterstock / Alexander Chaikin


In diesem Beitrag geht es um SEO. Hier bekommen Sie alle wichtigen Informationen rund um die Suchmaschinenoptimierung von Websites.

1. Was ist SEO?

SEO kommt ursprĂŒnglich aus dem Englischen und ist die AbkĂŒrzung fĂŒr „Search Engine Optimization“. Übersetzt ins Deutsche bedeutet SEO „Suchmaschinenoptimierung“. Unter SEO fasst man eine Reihe von Maßnahmen zusammen, die dazu fĂŒhren sollen, dass man mit der eigenen Website Top-Platzierungen innerhalb der Suchergebnisse von Suchmaschinen erreicht.

Zum SEO ErklÀrungs-Video

2. Geschichte von SEO – ein RĂŒckblick

Als die ersten Suchmaschinen galten einfache Such-Systeme, die in den 90er Jahren Informationen und Dateien in bestimmten Netzwerken suchten. Die Suchmaschine “Archie” durchsuchte bspw. Dateien in FTP-Verzeichnissen. Damals gab es nur einfach Such-Operatoren, die mittels AND, OR und NOT durchgefĂŒhrt worden sind. Als in den 90er Jahren das Internet geöffnet worden ist und immer mehr Websites das Licht der Welt erblickten, war es notwendig die zahlreichen Informationen einfach und schnell zugĂ€nglich zu machen.

Zu dieser Zeit entstanden dann:

  • Crawler und Spider, die im Internet gezielt nach Websites suchten
  • Indexer, die nach der Übergabe der Websites und Inhalte seitens der Crawler und Spider, diese in einen Index aufnahmen

Aus dem Index heraus konnten die Websites dann bewertet und in bestimmter Rangfolge ausgegeben werden. Lycos war dann 1994 die erste Suchmaschinen, mit der man mittels Suchbegriffen und Keywords nach Websites suchen konnte. Die Suchmaschine lieferte nach der Such-Eingabe entsprechende Ergebnisse aus, wo man bei Klick dann auf die Website gelangte. Das erleichterte die Informationsrecherche und -suche im Internet erheblich. Suchte man zu dieser Zeit nach Informationen und passenden Websites, so musste man die Domain kennen oder sich durch zahlreiche Webkataloge klicken.

Da immer mehr Websites veröffentlicht wurden, wuchs auch die Informationsmenge im Internet. Nutzer suchten nach sinnvollen Möglichkeiten diese Informationen zu finden. Webmaster verfolgen zudem auch immer mehr das Ziel, diese Inhalte auffindbar zu machen. Weitere Suchmaschinen wie Yahoo oder Altavista entstanden. 1997 kam dann Google, die mit AOL und Netscape zusammenarbeiteten. Ende der 90er Jahre verzeichnete Google mehr als 500.000 Suchanfragen pro Tag.

Das Interesse war bei Webmastern groß, bei Suchmaschinen gelistet zu werden. Viele potentielle Besucher winkten fĂŒr die eigene Website. Da das Internet immer populĂ€rer und immer mehr Menschen zugĂ€nglich wurde, tummelten sich auch viele Hobby-Website-Bastler mit ihren Websites im Internet. Entsprechend war die Konkurrenz groß in den Suchergebnissen von Google und Co.

Somit stĂŒrzten sich alle langsam in die Optimierung der Website fĂŒr Suchmaschinen. Die Suchmaschinenoptimierung entstand dabei. Anfangs waren die Suchmaschinen-Anbieter primĂ€r auf ein System der exakten Übereinstimmung ausgerichtet. Das bedeutet, dass aus heutiger Sicht einfache Optimierungen wie die Platzierung von Keywords im Meta-Keywords-Tag oder oft genug im Fließtext schon sehr gute Erfolge bei der Positionsbestimmung brachten.

Diese “einfachen Möglichkeiten” fĂŒhrten auch dazu, dass Suchergebnisse stark manipuliert wurden. So kamen Websites auf die vorderen Positionen, die keinen großen Nutzen fĂŒr die Website-Besucher hatten. Im schlimmsten Fall waren diese Websites schĂ€dlich. Sogenannte Blackhat-Techniken erlebten ihren Boom.

Suchmaschinen erkannten das Problem immer mehr und sahen sich unter Druck, dass bei minderwertigen Ergebnissen weniger Nutzer ihre Suchmaschine nutzen wĂŒrden. Entsprechend wurden die Bewertungsgrundlagen und QualitĂ€tsrichtlinien stetig verbessert. Zahlreiche Algorithmus-Updates entstanden in dieser Zeit, die dazu fĂŒhrten, dass es immer schwieriger wurde mit Blackhat-Techniken gute Ergebnisse zu erzielen. Die Suchmaschinen – allen voran Google – gingen weg vom System der exakten Übereinstimmung hin zu einem System, der immer besser die Relevanz auf Basis geheimer Faktoren ermitteln konnte.

Dadurch hat sich SEO zu einem komplexen Themengebiet entwickelt. Viele Ranking-Faktoren bestimmen heutzutage die Ergebnisse – die meisten davon werden von Google und Co. geheim gehalten. Auf Basis von Tests und Studien lassen sich viele Faktoren jedoch ableiten. Entstanden sind dadurch die SĂ€ulen des SEO, wo die verschiedenen Ranking-Faktoren grob kategorisiert werden.

Bestandteile SEO-Suchmaschinenoptimierung-SEO

© Google

3. EinfĂŒhrung in die SĂ€ulen der Suchmaschinenoptimierung (SEO)

Diese Maßnahmen werden klassischerweise in SEO-Technik, Content und Linkbuilding unterteilt. Jeder dieser Bereiche verfolgt unterschiedliche Teil-Ziele, die aber gemeinsam auf das Ziel der Top-Positionen einzahlen.

Drei-Elemente-Suchmaschinenoptimierung-SEO

© OSG

  • SEO-Technik: In der SEO-Technik geht es primĂ€r darum, alle technischen HĂŒrden, die eine Suchmaschine davon abhalten wĂŒrde die eigene Website zu indexieren, aus dem Weg zu rĂ€umen. Neben der Steuerung des Crawlings geht es vor allem darum, dass die Inhalte von Suchmaschinen ausgelesen und verstanden werden können. Die SEO-Technik bildet somit die Basis der Suchmaschinenoptimierung (Google Suchmaschinenoptimierung). Erst wenn die Website in den Index von Suchmaschinen aufgenommen werden kann, ist ein Ranking ĂŒberhaupt erst möglich.
  • Content: Im Content geht es darum, die Inhalte einer Website so aufzubereiten, dass sie einen Mehrwert fĂŒr die Nutzer bieten. ZusĂ€tzlich mĂŒssen die Inhalte so optimiert werden, dass auch eine Suchmaschine leicht und schnell erkennt, welches Thema behandelt wird. Ist das gegeben, können Suchmaschinen wie Google oder Bing, den Inhalt einzelnen Keywords und Keyword-Kombinationen zuweisen. Allein mit guten und wertvollen Inhalten können schon gute Ergebnisse erzielt werden.
  • Linkbuilding: Möchte man aber die Top-Positionen erreichen, so kommt man an Linkbuilding nicht vorbei. Dabei handelt es sich um externe Verlinkungen von anderen Websites zur Eigenen. Diese Verlinkungen sehen Suchmaschinen als Empfehlung an. WĂ€hrend sich die SEO-Technik und Content auf der eigenen Website abspielt, findet Linkbuilding auf fremden Websites statt. Vor allem bei stark umkĂ€mpften Keywords, werden Backlinks wichtig, da hier Suchmaschinen neben einer technisch einwandfreien Website und guten Content auf Empfehlungen (also Backlinks) von anderen Websites angewiesen sind. Nur so kann die Suchmaschine ein Ranking sinnvoll bestimmen.

Steuerungsfaktoren der Suchmaschinenoptimierung

Steuerungsfaktoren-SEO-Suchmaschinenoptimierung

© OSG

SEO (Suchmaschinenoptimierung) besteht also aus 3 SĂ€ulen. Diese lassen sich jedoch noch einmal gruppieren, sodass man von Onpage- und Offpage-Optimierung spricht:

Wir werden spÀter noch genauer auf die einzelnen Bereiche eingehen.

4. Unterschied SEO, SEA und SEM

Bei der Suchmaschinenoptimierung denkt man immer sofort an Top-Platzierungen und an die Suchergebnis-Liste. Bei der Suchergebnis-Liste spricht man auch von der SERP. “SERP” steht im Englischen fĂŒr “Search Engine Result Page” – zu deutsch “Suchmaschinen-Ergebnisseite”.

Die SERP wird jedoch nicht nur mittels SEO-Maßnahmen besetzt. Grob lĂ€sst sich die SERP daher in folgende 2 Bereiche unterteilen:

  • Bezahlter Bereich: Dieser Bereich basiert auf bezahlten Such-Anzeigen. Diese werden ĂŒber das System “Google Ads” gebucht. Die Auslieferung und Positionsbestimmung funktioniert anders als bei SEO. Die Google Ads-Anzeigen werden am oberen und unteren Ende der SERPs ausgegeben. Manchmal werden sie auch als Google Shopping-Anzeigen rechts neben der klassischen SERP ausgespielt. Der bezahlte Bereich kann nicht mittels SEO-Maßnahmen direkt beeinflusst werden.
  • Organischer Bereich: Der organische Bereich ist der, der mittels SEO-Maßnahmen bestimmt wird. GrundsĂ€tzlich gibt es pro Suchergebnisseite 10 mögliche Platzierungen.
Suchergebnisseite-google-suchmaschinenoptimierung-seo

© Google

Mit diesem Hintergrundwissen lÀsst sich der Unterschied zwischen SEA und SEO besser verstehen:

  • SEA – “Der Sprint”
    • SEA steht fĂŒr “Search Engine Advertising” und fasst alle Maßnahmen zusammen, die den bezahlten SERP-Bereich beeinflussen. Im deutschen sagt man dazu neben SEA auch Suchmaschinen-Werbung.
    • Prompte Implementierung
    • Höhere Cost-Per-Clicks
    • Reaktionsfreudig / flexibel
    • Anpassbar / kontrollierbar
  • SEO – “Der Marathon”
    • SEO (Suchmaschinenoptimierung) steht – wie anfangs erwĂ€hnt- fĂŒr “Search Engine Optimization” und fasst alle Maßnahmen zusammen, die den organischen Bereich beeinflussen.
    • LĂ€ngere Vorlaufzeit
    • Baut auf dem Vertrauen der Suchmaschine auf
    • Geringer CPC
    • Kontinuierlicher Arbeitsaufwand

Nach dieser Unterscheidung ist es auch noch gut zu wissen, wie diese beiden Disziplinen zusammenspielen:

Zusammenspiel von SEO und SEA

© OSG

Hier sollten also die Synergie-Effekte von SEO & SEA genutzt werden, denn dadurch werden wird die Klickrate erhöht und die Markenbekanntheit gesteigert. Durch den Austausch von guten Anzeigentexten kann die Klickrate im SEO Bereich gesteigert werden und aus dem SEA Bereich können ebenfalls eine bessere Auswahl fĂŒr den SEO Bereich getroffen werden.

Unter dem Begriff “SEM” werden dann beide Disziplinen zusammengefasst. SEM steht fĂŒr “Search Engine Marketing”, also Suchmaschinen-Marketing. Es existiert aber auch eine Definition, dass SEM = SEA ist. Es hat sich jedoch allgemein durchgesetzt, dass “SEM = SEO + SEA” ist.

Zum SEO vs. SEA Artikel

Zur SEO Agentur

Zur SEA Agentur

Zur SEM Agentur

5. Ranking-Faktoren

Alle genannten Aspekte unter “SEO-Technik”, “Content” und “Linkbuilding” zielen darauf ab, die Rankings der Domain positiv zu beeinflussen. Im SEO (Suchmaschinenoptimierung) gibt es eine Reihe an möglichen Stellschrauben. Wichtig ist dabei der Fokus auf die Ranking-Faktoren.

Dabei handelt es sich um Optimierungen, die tatsÀchlich eine Auswirkung auf das Ranking haben. Diesen Aspekt kann man am Beispiel der drei Meta-Angaben Title, Description und Keywords nÀher beschreiben:

  • Der Meta-Title ist ein wichtiges Ranking-Signal fĂŒr Google. Aus diesem Grund sollte der Title kurz und prĂ€gnant sein sowie die wichtigsten Keywords enthalten. Auch 30% der User lesen diesen Titel. Die optimale LĂ€nge fĂŒr den Meta-Titel sind max. 65 Zeichen.
  • Die Meta-Description ist jedoch kein Ranking-Faktoren, kann sich jedoch indirekt auf die Rankings auswirken. Eine gut formulierte Meta-Description animiert den Nutzern zum Klicken. Findet der Nutzer die Beschreibung ansprechend, laut Studien lesen 44% die Beschreibung, genug und erzeugt dies dadurch einen Klick innerhalb der SERP, dann erhöht sich auf die Klickrate (CTR). Diese wiederum ist ein – nach vielen Vermutungen – Ranking-Faktor. HierfĂŒr sollte eine maximale LĂ€nge von 160 Zeichen mit Leerzeichen gewĂ€hlt werden.
  • Die Meta-Keywords-Angaben sind kein Ranking-Faktor (mehr). Google verwendet das Element seit 2009 nicht mehr fĂŒr das Ranking.
  • Motivationsfaktoren fĂŒr einen Klick: exakte Suchanfrage im Title und Description, detaillierte Informationen bereits in der Description angeben, vertrauenswĂŒrdige Domain mit hoher Bekanntheit und Vertrautheit der Website, USP, CTA, Bewertungen und Rich Snippets
Google_Meta description

© Google

WĂ€hrend man die Ranking-Auswirkungen dieser 3 Elemente relativ gut abschĂ€tzen kann, ist das bei vielen anderen Faktoren nicht der Fall. Vor allem die Gewichtung einzelner Aspekte im Rahmen der Gesamtbewertung ist nicht bekannt. Laut Aussagen von Google fließen insgesamt ĂŒber 200 Faktoren in den Algorithmus ein, um eine Website zu bewerten. Die meisten dieser Faktoren sind geheim. Einige Faktoren wie SSL oder Pagespeed kommuniziert Google offen. Bei den meisten Ranking-Faktoren handelt es sich meist um Erkenntnisse aus Erfahrungswerten, Tests und Studien, die durchgefĂŒhrt worden sind.

Nachfolgend finden Sie eine kleine Liste an Ranking-Faktoren als Anhaltspunkt. Beachten Sie, dass sich die Liste jederzeit Àndern kann. Auch die Gewichtung einzelner Faktoren wechselt stetig. Immer wieder werden Algorithmus-Updates veröffentlicht, wo sich Anpassungen an der Bewertungsgrundlage ergeben.

  • Benutzerfreundlichkeit: Google nimmt positive Nutzer-Signale wahr und belohnt dies mit besseren Rankings. Ein ansprechendes Design, eine ĂŒbersichtliche Website-Struktur, gute Navigation und viele weitere Aspekte spielen hier eine Rolle.
  • Bounce Rate: Die Bounce Rate (oder Absprungrate) ist der Anteil der Besucher, die wieder von der Website gehen ohne eine weitere Unterseite besucht zu haben. Klickt ein Nutzer auf ein Suchergebnis, um nur wenige Sekunden spĂ€ter von der Website abzuspringen und um auf die Suchergebnisseite zurĂŒckzugelangen, kann Google als negatives Signal werten können. Nicht immer ist eine hohe Bounce Rate ein schlechtes Signal. So können Nutzer einen “Bounce” verursachen ohne dass sie unzufrieden sind. Das ist vor allem dann der Fall, wenn der Nutzer die gesuchten Informationen gefunden hat und wieder geht.
  • Interstitial Popups: Dieser Punkt geht Hand in Hand mit der Nutzer-Erfahrung und Benutzerfreundlichkeit. Dabei sind Websites, die Popups einsetzen im Visier. Sobald Popups die Erfassung des Hauptinhalts erschweren und sonst auch störend sind, gefĂ€hrden sie die Rankings. Im offiziellen Blog-Beitrag von Google gibt es dazu detaillierte Informationen und Anleitungen.
  • Keywords: Der Keyword-Einsatz im HTML-Dokument spielen ebenfalls weiterhin eine wichtige Rolle als Ranking-Faktor. Das jeweilige Hauptkeyword der Seite sollte im Title, H1, ZwischenĂŒberschriften und Fließtext platziert werden. Dadurch stellt man eine Relevanz zu der Suchanfrage des Nutzer her. Suchmaschinen können dadurch die Seiten den Keywords zuordnen.
  • Content: Content is King! Neben Keyword-Einsatz, Inhaltsstruktur und Lesbarkeit geht es beim Content vor allem die richtigen Themen zielgruppenspezifisch aufzubereiten. Auch die AktualitĂ€t und RegelmĂ€ĂŸigkeit von Content-Veröffentlichungen spielen eine wichtige Rolle.
  • Backlinks: Externe Verlinkungen zu der eigenen Website sind der wichtigste Ranking-Faktor. WĂ€hrend man in Nischen noch mit Content gute Platzierungen erzielen kann, reicht bei stark umkĂ€mpften Keywords Content alleine nicht aus. Hier sind dann hochwertige Backlinks notwendig, um die gewĂŒnschten Erfolge zu zielen.
  • Pagespeed: Schon 2010 hat Google den Pagespeed von Websites ins Visier genommen und es zu einem Ranking-Faktor gemacht. Je schneller eine Seite lĂ€dt, desto zufriedener sind Nutzer und Suchmaschinen.
  • SSL: Im August hat Google offiziell verkĂŒndet, dass SSL ein Ranking-Faktor ist. Websites, die ĂŒber HTTPS erreichbar sind, können in der Suche einen leichten Bonus erzielen. Neben dem Ranking-Effekt haben Websites mit SSL-VerschlĂŒsselung Auswirkungen auf das Nutzer-Verhalten. Besucher fĂŒhlen sich durch den Einsatz von HTTPS sicherer auf der Website.

Teste jetzt unseren SSL Checker:

6. Indexierung und Crawling

Im Google Leitfaden wird unter anderem aufgezeigt, wie Sie Ihre Website in den Google-Index aufnehmen lassen und fĂŒr angemessenes Crawling sorgen. Wir prĂ€sentieren kurz und kompakt, welche Optionen Google bereitstellt, damit Ihre Website in den Suchergebnissen auftaucht und wie Sie mit Google Suchmaschinenoptimierung beginnen.

6.1 So arbeiten Suchmaschinen

Suchmaschinen nutzen Crawler, auch Bots genannt, deren Aufgabe es ist, Webseiten zu analysieren. Crawler verhalten sich im Grunde wie normale Internetnutzer. Sie folgen den Links von Webseiten, um so auf eine andere Seite zu gelangen. Diesen Vorgang wiederholen sie immer wieder. In selteneren FÀllen folgen die Crawler keinem Link, sondern starten auf einer zufÀlligen Webseite neu. So kann verhindert werden, dass Crawler sich immer innerhalb der gleichen Domain bewegen. Dies wÀre der Fall, wenn es auf einer Domain nur interne Verlinkungen gibt.

Anhand einer Analyse entscheidet die Suchmaschine, ob die gecheckte Seite in den Index (also die Suchergebnisseite) aufgenommen wird. Dabei helfen Meta-Daten und Keywords dem Crawler zu verstehen, worum es auf einer Seite geht. Durch einen speziellen Algorithmus gibt die Suchmaschine dann eine Ergebnisliste aus, die dem Nutzer möglichst gute Ergebnisse zu seiner Suchanfrage liefern soll.

Grafik: Wie arbeiten Suchmaschinen?

© OSG

6.2 Website zur Aufnahme einreichen

Google stellt die Search Console zu VerfĂŒgung. Unter https://www.google.com/webmasters/tools/submit-url?hl=de lĂ€sst sich eine URL eintragen und einreichen. Hier geben Sie am besten die Startseite ein. Hat die Startseite eine korrekte Verlinkung zu Unterseiten, sollten all Ihre Seiten von den Bots gefunden werden. Bei komplexen Websites mit vielen Unterseiten sollte eine Sitemap eingereicht werden. Zu diesem Zweck mĂŒssen Sie unter https://google.com/webmasters/ einen Search-Console-Account erstellen, dort Ihre Website hinzufĂŒgen und die Sitemap einreichen. Kurze Zeit spĂ€ter sendet Google seine Bots aus, um Ihre Seiten zu scannen. Eine Aufnahme in den Index kann vonseiten Googles allerdings auch abgelehnt werden.

Tipp

Wie Sie eine XML-Sitemap erstellen und optimieren ist in unserem Blogbeitrag leicht und verstÀndlich erklÀrt.

Da die robots.txt die erste Datei ist, die ein Crawler abruft, sollte auch hier die XML-Sitemap hinterlegt werden. So bekommt Google direkt einen Überblick ĂŒber den Inhalt der Seite.

6.3 Crawlen von bestimmten Seiten verhindern

Manchmal sind Bots unerwĂŒnscht. Enthalten Unterseiten Informationen, die nicht in Suchergebnissen bei Google und Co. auftauchen sollen, können Sie robots.txt nutzen, um das Crawlen zu verhindern. Diese Datei wird im Stammverzeichnis (example.com/robots.txt) Ihrer Website platziert und enthĂ€lt Anweisungen fĂŒr Bots. Durch korrekt formulierte Anweisungen lassen sich bestimmte Bereiche Ihrer InternetprĂ€senz vom Crawling ausschließen. Um die Erstellung einer angemessenen robots.txt zu erleichtern, gibt es in der Search Console einen Generator.

Allerdings kann die robots.txt nicht das Crawling einer Website zu 100% verhindern. Gibt es zum Beispiel einen direkten Backlink auf eine Seite, oder wurde die Seite bereits schon indexiert, bevor sie durch die robots.txt gesperrt worden ist, kann sie möglicherweise auch trotz des entsprechenden Verweises in der robots.txt-Datei im Index angezeigt werden:

Robots.txt Snippet im Index

© Google

 

Eine Methode zur Verhinderung der Indexierung, an die sich alle großen Suchmaschinen halten, ist der Wert “noindex”. Dieser wird den entsprechenden Seiten als Meta -Tag zugefĂŒgt:

<meta name="robots" content="noindex" />

Diese Angabe besagt, dass Suchmaschinen die entsprechend ausgezeichnete Seite nicht in ihren Index aufnehmen dĂŒrfen. In dem Zuge kann auch der Wert “nofollow” verwendet werden. Er verhindert, dass die Crawler den Links der Seite folgen.

Sinnvoll kann das Verhindern der Indexierung sein, wenn Duplicate Content vermieden werden sollen. Andernfalls könnte Google sogenannte Penalties aussprechen, die dem Ranking einer Seite schaden.

 

Tipp

Bedenken Sie, dass sich Bots von seriösen Anbietern zwar an die genannten Anweisungen halten, aber Sie mĂŒssen auch mit bösartigen Crawlern rechnen, die diese ignorieren werden. Neugierige Nutzer könnten auch die robots.txt-Datei öffnen und gezielt nach ausgeschlossenen Seiten suchen, denn diese können weiterhin ĂŒber den Browser geöffnet werden. Diese Methoden sind dafĂŒr da, damit Sie bestimmen können, was in den Suchergebnissen nicht auftauchen soll. Wenn Sie echte Sicherheit brauchen, sollten Sie eine Autorisierungsmöglichkeit wie Passwortschutz integrieren

7. Warum ist Suchmaschinenoptimierung (SEO) wichtig?

SEO bietet verschiedene Vorteile. ZunÀchst sollte man ein paar Studien heranziehen:

  1. Suchmaschinen sind laut der ARD/ZDF-Onlinestudie 2019 nach Messenger-Diensten wie Whatsapp das meist genutzte Medium im Internet. Vor allem wenn es um die Beschaffung von Informationen und den Kauf von Produkten sowie die Buchung von Dienstleistungen geht, werden vorrangig Suchmaschinen genutzt.

    Online-Werbung-Einfluss-Kaufentscheidung-Suchmaschinenoptimierung-SEO

    © Statista

  2. Unter den Suchmaschinen wird wiederum Google am hÀufigsten genutzt. In Deutschland liegt der Google-Anteil im Suchmaschinen-Markt bei ca. 93 % laut Statcounter.

  3. Zum anderen geht es nicht einfach darum bei Suchmaschinen vertreten zu sein. Platzierungen auf den hinteren Positionen bringen nicht viel. Laut einer Studie von Backlinko erhÀlt Position 1 ca. 32 % der Klicks, Position 2 ca. 25 % der Klicks, Position 3 nur noch ca. 18 %, etc. Zudem bekommt Seite 1 der Suchergebnisse (Positionen 1 bis 10) fast alle Klicks ab, wÀhrend auf Seite 2 (Positionen 11 bis 20) kaum noch Klicks stattfinden.

    Anzahl-betrachteter-Suchergebnisse-Suchmaschinenoptimierung-SEO

    © Google

Erzielt man nun mit SEO-Maßnahmen Top-Platzierungen, landen die meisten Nutzer auf der eigenen Website. Da jeder ein StĂŒck vom Kuchen abhaben möchte, herrscht hier großer Wettbewerb um den Kampf von Top-Positionen innerhalb der SERP.

8. Vorteile von SEO (Suchmaschinenoptimierung)

Setzt man SEO-Maßnahmen gezielt ein und stellt alle wichtigen Drehschrauben sicher, kommt man in den Genuss folgender Vorteile:

  • Sichtbarkeit: Bei Top-Platzierungen erscheint man ganz oben auf den Suchergebnissen und ist somit mit der eigenen Marke sofort sichtbar bei Nutzern. Selbst wenn sie nicht die Website anklicken, so ist man mit der Marke prĂ€sent und bleibt in Erinnerung.
Imgageaufbau-Suchergebnisseite-Suchmaschinenoptimierung-SEO

© Google

 

  • Traffic: Klicken die Nutzer jedoch auf ein Suchergebnis, so generiert man Traffic auf der eigenen Website.
  • Umsatz: Stimmen Inhalte und Nutzer-FĂŒhrung (aus UX-Sicht), bekommt man so auch im besten Fall UmsĂ€tze ĂŒber SEO, wenn der Nutzer auf der Website etwas kauft.

9. Überblick der Suchmaschinen

Spricht man von Suchmaschinen und SEO, dann denken die meisten sofort an Google. Woran kann das liegen? Schauen wir uns die Marktanteile der Suchmaschinen in Deutschland an, ergibt sich laut Statcounter folgendes Bild (Stand Mai 2020):

  • Google 92,88 %
  • Bing 4,15 %
  • Ecosia 0,86 %
  • Yahoo 0,71 %
  • DuckDuckGo 0,69 %
  • T-Online 0,24 %
Suchmaschinenmarktanteile-Deutschland-Suchmaschinenoptimierung-SEO.

© Statcounter

Der weltweite Marktanteil der Suchmaschinen ergibt ein etwas anderes Bild (Quelle: Statcounter, Stand: Mai 2020):

  • Google 92,06 %
  • Bing 2,61 %
  • Yahoo 1,79 %
  • Baidu 1,16 %
  • Yandex 0,56 %

Die meisten Menschen nutzen also Google als bevorzugte Suchmaschine. Aus diesem Grund verknĂŒpfen viele Internet-Nutzer Suchmaschinen direkt mit Google. Deshalb liegt auch der Fokus beim SEO auf Google. Wer jedoch internationales SEO (Suchmaschinenoptimierung) betreibt, sollte auch die Optimierung auf andere Suchmaschinen in die SEO-Strategie aufnehmen:

  • In Japan ist Yahoo etwas stĂ€rker vertreten (dennoch ist Google auch in Japan MarktfĂŒhrer)
  • In Russland laufen viele Suchanfragen ĂŒber die Suchmaschine Yandex
  • In China ist Baidu MarktfĂŒhrer. Die Suchmaschinen Sogou und Haosou sind ebenfalls noch vor Google in der Rangliste.

10. SEO-Strategie

Mit diesem Hintergrundwissen kann nun eine nachhaltige SEO-Strategie definiert. Bevor es an die Optimierungen geht, bildet eine durchdachte SEO-Strategie die Basis fĂŒr alle Maßnahmen in der Google Suchmaschinenoptimierung . FĂŒr die Erstellung einer SEO-Strategie gibt es verschiedene Frameworks, die man einsetzen kann. Eine einfache Möglichkeit, eine SEO-Strategie zu entwickeln wĂ€re folgende Schritte:

  1. Definition Ziele und Zielgruppen
  2. Analyse
  3. Bewertung
  4. Erstellung Roadmap
  5. Laufendes Monitoring

10.1 Definition Ziele und Zielgruppen

ZunÀchst geht es darum, die notwendigen Rahmenbedingungen festzulegen. Vor allem die Definition der Ziele legt fest, welchen Fokus man in der Roadmap setzen muss. Im SEO (Suchmaschinenoptimierung) können verschiedene Ziele verfolgt werden. Mögliche Ziele sind:

  • Top-Positionen mit bestimmten, wichtigen und generischen Keywords besetzen
  • Die Sichtbarkeit innerhalb der SERPs steigern
  • Verbesserung der Klickraten innerhalb der Suchergebnisse
  • Den Website-Traffic ĂŒber SEO erhöhen
  • Anzahl Leads und Conversions ĂŒber die organische Suche erhöhen

Einige Ziele sind aufeinander aufbauend. Eine höhere Sichtbarkeit bringt meist auch gleichzeitig mehr SEO-Traffic. Es macht jedoch einen Unterschied worauf man sich fokussiert:

  • Liegt der Fokus auf die Erhöhung der Sichtbarkeit, so ist es sinnvoll zunĂ€chst eine Keyword-Analyse durchzufĂŒhren. Die Keywords mit den höchsten Suchvolumen können z.B. höher priorisiert und optimiert werden. In Folge dessen muss ausreichend Content erstellt werden, um die Sichtbarkeit zu steigern. In der SEO-Strategie sollte also genug Zeit und Budget fĂŒr die Inhaltserstellung eingeplant werden.
  • Liegt der Fokus auf der Erhöhung der Leads und Conversions mĂŒssen transaktionsorientierte Suchanfragen optimiert werden. Das geschieht ĂŒber die Optimierung der dazugehörigen Landingpages und die Steigerung der externen Empfehlungen. Auch UX-Optimierungen direkt auf der Seite, um die Nutzer zielgerichtet zu einer Conversion zu fĂŒhren, gehören hier dazu.

Solche Gedanken muss man sich vor dem Start der Umsetzungen machen, um eine fokussierte Maßnahmenplanung erstellen zu können, die auf das Ziel ausgerichetet ist. ZusĂ€tzlich muss man sich auch Gedanken ĂŒber die Zielgruppe machen:

  • Was sind die BedĂŒrfnisse der Zielgruppen?
  • Nach welchen Informationen sucht meine Zielgruppe?
  • Was sind mögliche Pain Points, die auf der Website aus dem Weg gerĂ€umt werden mĂŒssen?
  • Wie sieht eine typische User Journey meiner Zielgruppe aus?
  • Was sind die entscheidenden Anreize, damit meine Nutzer auch zu Kunden werden?

Die Beantwortung dieser Fragen hilft, besser zu verstehen wonach die eigene Zielgruppe sucht, welche InformationsbedĂŒrfnisse sie hat und was man als Webmaster und SEO tun kann, um mögliche HĂŒrden zu entfernen. Die Erstellung von Personas hilft dabei, sich besser in die Zielgruppen hinein zu versetzen.

10.2 Analyse

Wurden die Grundparameter definiert, kann es schon in die Analyse gehen. Ziel der Analyse ist es, sich einen Überblick ĂŒber den Status Quo der Domain hinsichtlich der SEO-Performance zu verschaffen.

Mit dem Status Quo stellt man fest, wo man steht. Mit dem definierten Ziel weiß man, wo es hingehen soll. Der Raum dazwischen wird mit den notwendigen Maßnahmen befĂŒllt.

Bei der SEO-Analyse sollten zunÀchst alle relevanten SEO-Kennzahlen festgehalten werden. Das ist wichtig, um nach der Umsetzung der Roadmap zu wissen, was man erreicht hat. Folgende Kennzahlen können beim Status Quo dokumentiert werden:

  • Sichtbarkeit
  • Keyword-Rankings
  • Traffic
  • Conversions ĂŒber SEO (Suchmaschinenoptimierung)

ÜberprĂŒft man nun den Ist-Stand der Website kann man sich anhand der 3 SEO-SĂ€ulen durcharbeiten:

  • SEO-Technik: Hier werden alle technischen Parameter geprĂŒft. Was alles zur SEO-Technik gehört, erfahren Sie weiter unten.
  • Content: Auf Basis von Keywords wird der aktuelle Content unter die Lupe genommen.
  • Linkbuilding: Das aktuelle Backlink-Profil sollte nĂ€her analysiert werden, um anschließend Linkbuilding-Maßnahmen zu definieren.

Alle AuffÀlligkeiten sollten gesammelt und in eine Roadmap dokumentiert werden.

10.3 Bewertung

Gleichzeitig sollte bewertet werden, welcher der Maßnahmen zur Zielerreichung beitragen. Daraus erfolgt eine Priorisierung:

  • Wichtige Maßnahmen werden frĂŒhzeitig angegangen.
  • Maßnahmen, die stark zur Ziel-Erreichung beitragen, können zunĂ€chst in ein Backlog geschoben und zu einem spĂ€teren Zeitpunkt umgesetzt werden

10.4 Erstellung Roadmap

Daraus ergibt sich eine Roadmap, die im laufenden SEO-Prozess als Basis fĂŒr die Optimierungen dient.

10.5 Laufendes Monitoring

Mit dem definierten Ziel vor Augen sollten die umgesetzten Maßnahmen laufend ĂŒberwacht und bewertet werden. Wichtig ist es immer zu untersuchen, ob sich durchgefĂŒhrte Optimierungen positiv auf die Kennzahlen auswirken oder nicht. So kann man rechtzeitig entgegensteuern, falls einzelne Anpassungen nicht die gewĂŒnschten Ergebnissen liefern.

11. Onpage SEO

Der Onpage-Bereich fasst SEO-Technik und Content zusammen. „Onpage“ heißt dabei so viel wie „auf der Seite“ und impliziert, dass hier Faktoren gemeint sind, die sich auf der eigenen Website abspielen. Vorteil von Onpage-SEO ist vor allem die Möglichkeit, diese Parameter bewusst beeinflussen zu können.

11.1 SEO-Technik

In der SEO-Technik dreht sich alles um technische Parameter. Ziel ist es mit technischen Optimierungen das Crawling und die Indexierung sicherzustellen. Erst wenn eine Website in den Google-Index aufgenommen wird, ist sie fĂŒr Nutzer auffindbar und kann dadurch SEO-Traffic generieren.

Damit eine Website in den Index aufgenommen wird, durchlÀuft der Googlebot grob folgenden Prozess:

  1. Der Googlebot ruft die Website auf
  2. Die Website wird gecrawlt. Crawling bedeutet, dass mit einem Programm Daten auf einer Website gesammelt und abgerufen werden
  3. Die gesammelten Informationen werden verarbeitet
  4. Die Website landet in dem Such-Index

Crawling und Indexierung sind also zwei unterschiedliche Prozesse. Deshalb ist es wichtig, dass in der technischen Suchmaschinenoptimierung beides sichergestellt wird. Dazu gibt es verschiedene Parameter, die analysiert und auf Richtigkeit geprĂŒft werden sollten.

Zu diesen Parametern gehören:

  • robots.txt: Die robots.txt liegt im Root-Verzeichnis der Domain und steuert das Crawling. Hier ist es besonders wichtig keine CSS- und JavaScript-Dateien auszusperren, damit Google die Website erfolgreich rendern kann. Wichtig ist auch keine URLs auszusperren, die man vom Index fernhalten möchte. Mit der robots.txt wird nĂ€mlich nicht die Indexierung gesteuert. Da die robots.txt das erste ist, was Suchmaschinen-Bots aufrufen bevor sie die Website crawlen, sollte man dort auch einen Link zur XML-Sitemap angeben.
  • XML-Sitemap: In einer Sitemap sind alle fĂŒr den Index relevanten Seiten enthalten. Die Sitemap wird in der robots.txt verlinkt und sollte auch bei den Suchmaschinen eingereicht werden. Bei Google geschieht das ĂŒber die Google Search Console. Wichtig ist, dass in der Sitemap nur URLs enthalten sind, die auch indexiert werden können. Noindex-Seiten, Fehlerseite und Seiten, die per Canonical auf eine andere Seite zeigen, sollten von der Sitemap ausgeschlossen werden.
  • Canonicals: Canonicals sind Meta-Angaben, die von verschiedenen Suchmaschinen eingefĂŒhrt worden sind. Ziel war es, Webmastern eine Möglichkeit zu geben, die kanonische Version einer URL festzulegen. Oft kommt es vor, dass der gleiche Inhalte ĂŒber verschiedene URLs hinweg aufrufbar ist. In solchen FĂ€llen können alle “Kopien” per Canonical auf das Original zeigen. Mit der Canonical-Angabe werden alle Ranking-Signale auf die Original-URL ĂŒbertragen. Zudem wird auch nur der Original-Inhalt indexiert. SEOs sollten sicherstellen, dass die Canonicals korrekt implementiert werden.
  • Pagespeed: Nutzer mögen es nicht, wenn eine Website langsam lĂ€dt. Auch Suchmaschinen schauen sich genau an, wie schnell eine Website lĂ€dt. LĂ€ngst ist Pagespeed ein Ranking-Faktor. Suchmaschinen möchten damit Websites belohnen, die dem Nutzer schnell zur VerfĂŒgung stehen. Dabei sollten verschiedene Themen analysiert werden. Bilder haben tendenziell den grĂ¶ĂŸten Einfluss auf die Seitenladegeschwindigkeit, die optimiert werden sollten. Weitere Aspekte, die nĂ€her durchleuchtet werden sollten, sind Caching, CSS- und JavaScript-Dateien, Server-Einstellungen, CDN-Einsatz und Webfonts.
  • Hreflangs: Bei internationalen Websites, die verschiedene Sprachen und LĂ€nder abdecken, muss ein Hreflang-Konzept umgesetzt werden. Bei Hreflangs handelt es sich um Meta-Angaben, um Suchmaschinen die Sprachen- und LĂ€nder-Zugehörigkeit zu signalisieren. Dadurch sind die Suchmaschinen in der Lage, die Website-Inhalte im richtigen Land anzuzeigen.
  • SSL: Der sichere Verbindungsaufbau zwischen Browser und Server ist ein Ranking-Faktor bei Google. Ob eine Website ein SSL-Zeritifikat einsetzt erkennt man am “https” vor der Domain in der Browser-Adresszeile. Welches SSL-Zertifikat eingesetzt wird, ist fĂŒr Suchmaschinen weniger relevant. Wichtig ist, dass das Zertifikat gĂŒltig ist.
  • URLs: URL steht fĂŒr “Uniform Resource Locator” und gibt die eindeutige Adresse einer Seite an. FĂŒr Suchmaschinen ist es wichtig, dass diese sprechend ist. Kryptische URLs sollten vermieden werden. Sprechende URLs sollten auch aus User-Sicht eingesetzt, da damit der Inhalt einer URL erahnt werden kann. Aus SEO-Sicht können hier wichtige Keywords der Seite platziert werden, um eine höhere Relevanz zu erzeugen. Zudem sollte die URL im optimalen Fall kurz und leicht einprĂ€gsam sein.
  • 404-Fehlerseiten: Oft passiert es, dass Inhalte falsch verlinkt werden oder, dass verlinkte Inhalte nicht mehr existieren. Folgt eine Suchmaschine diesen Link, dann landet der Bot auf einer Fehlerseite. Damit diese nicht unnötig aufgerufen werden und somit auch Crawl-Budget verschwendet wird, sollten entdeckte Fehlerseiten behoben werden.
  • Strukturierte Daten (Rich Snippets): Der Einsatz von strukturierten Daten hilft Suchmaschinen, den Inhalt besser zu verstehen. Dabei werden Inhalte im Code auf Basis von Vorgaben von schema.org ausgezeichnet. Suchmaschinen lesen diese Auszeichnungen aus und verwenden die Inhalte fĂŒr die Suche, indem man mit sogenannten Rich Snippets belohnt wird. Dabei handelt es sich um Erweiterungen des Standard-Snippets mit Titel, Beschreibung und URL-Angabe.
  • Überschriften-Struktur: Überschriften helfen, den Text etwas aufzulockern und besser zu strukturieren. Wichtig ist, dass Haupt- und ZwischenĂŒberschriften als solche auch im Quellcode ausgezeichnet werden. Dazu stehen im HTML die Überschriften-Hierarchie von H1 bis H6 zur VerfĂŒgung.
  • Weitere Parameter, die fĂŒr die Suche relevant sind: cache (letztes Abbild der Seite im Google Cache); site (durchsucht die angegebene Domain); link (zeigt Links auf die angegebene Domain); inurl: & allinurl (sucht in der URL nach Keywords); intitle: & allintitle (sucht im Seiten-Title nach Keywords); info (Auflistung der Informationen ĂŒber eine Domain); define (Suche nach einer Definition fĂŒr Keywords); filetype (Suche nach Dateiformaten)

Zum Ladezeiten optimieren Artikel

Zum Rich Snippets Artikel

Zum Sitemap XML Artikel

Zum Canonical Tag Artikel

TECHNISCHE FAKTORENBeschreibungHÀufige FehlerLösungsvorschlagRelevanzAbhÀngigkeitNutzenAufwandPrioritÀtQuelle
UnerreichbarkeitUnerreichbarkeit ist ein ernsthaftes Ranking-Problem. HĂ€ufige und lĂ€nger auftretende AusfĂ€lle haben einen spĂŒrbaren Einfluss auf die Platzierungen.Fehlkonfigurationen, kaputte oder volle Festplatten, Server-UmzĂŒge oder AbbuchungsproblemeÜberprĂŒfen Sie regelmĂ€ĂŸig mittels Google Webmaster Tool, ob Ihre Website noch erreichbar ist.Sichtbarkeit, Usability, Indexierungxhochniedirgmittelhttp://www.suchradar.de/magazin/archiv/2013/1-2013/downtimes-unerreichbare-server.php
ZugĂ€nglichkeit der SeitenWenn eine Website oder wichtige Inhaltsseiten wegen falscher Verlinkung, 404-Fehlern, (unnötigerweise) passwortgeschĂŒtzten Bereichen oder anderen GrĂŒnden (z. B. noindex) nicht erreichbar sind, können sie auch nicht indexiert werden.404 Fehler durch nicht mehr vorhandene Produkte.Nicht mehr vorhandene Produkte, die 404-Fehler erzeugen, sollten auf die nĂ€chst-höhere Kategorie weitergeleitet werden
Crawlability, Usability. Rankingrobots.txt, Noindex, Nofollowhochniedirgmittel
Ansicht als SuchmaschinencrawlerKomplexe Web-Applikationen sind nicht immer zu 100% vorhersehbar, was die Ausgabe an Suchmaschinencrawler angeht.Mögliche Ursachen sind versehentliches Cloaking oder das Voraussetzen von Cookies.Abruf als Googlebot: beispielsweise mit https://tools.sistrix.de/bo/ oder GWT. Sind hier Fehler ersichtlich, kann die Website natĂŒrlich auch kein gutes Ranking erzielen.Crawlability, Indexierung, Cloakingrobots.txt (User Agent)mittelniedirgniedrig
CloakingDie IP-Adresse des Besuchers auszuwerten und bekannten Suchmaschinen-Crawlern gĂ€nzlich andere Inhalte zu liefern als menschlichen Besuchern ist gegen die Regeln der Suchmaschinen und fĂŒhrt in der Regel zum sofortigen Ausschluss.xxCrawlability, Indexierung, Abstrafungrobots.txtkeinenmittelmittelhttps://support.google.com/webmasters/answer/66355?hl=de
https://www.distilled.net/blog/seo/7-technical-seo-wins-for-web-developers/
http://googlewebmastercentral.blogspot.de/2011/11/get-post-and-safely-surfacing-more-of.html
FramesFrames sind aus SEO-Sicht keine gute Wahl. Framesets ranken generell schlecht und es ist sehr schwer Linkaufbau fĂŒr bestimmte Seiten innerhalb eines Framesets zu betreiben.xxRanking, Linkaufbau, Indexierungxhochhochhochhttp://www.abakus-internet-marketing.de/seo-artikel/seo-fehler.htm
IframesWebsites können ihre Inhalte erweitern ohne hierfĂŒr eigene Programmierarbeit zu nutzen. Z.B. durch das eingebetteten ?Youtube?-Videos.Seo-Inhalte werden ĂŒber iframes dargestellt. Einige Browsers und CMS können iframes nur bedingt darstellen.xIndexierung,
Usability , Acessibility
xgeringunterschiedlichniedrig
Sprechende URLsSprechende URLs sind besonders fĂŒr Yahoo! und Bing ein wichtiger Ranking-Faktor, vor allem wenn sie mit Keywords angereichert sind. DarĂŒber hinaus ist eine derartige Struktur sehr einfach fĂŒr Besucher zu verstehen.Einsatz von dynamischen URLs mit Parameter und Filter. Falsche URL Einstellung in der Serverkonfiguration bzw. htaccessServerkonfiguration auf sprechende URLs einstellen. Sprechende URLS mĂŒssen im CMS oder Shop definiert sein.Usability, geringes Rankingfaktor, Duplicate ContentVerzeichnisstrukturhochmittelmittelhttp://www.seitenreport.de/kb/-/seo-ist-die-zeit-sprechender-links-vorbei.html
Dynamische URLs und Eindeutigkeit der ParameterDynamische URLs (URLs mit angehĂ€ngten Parametern) sollten prinzipiell vermieden werden, weil sie deutlich die KomplexitĂ€t erhöhen, die fĂŒr bestmögliche SEO-Ergebnisse gelöst werden muss. Suchmaschinen können zwar jede Art von URL verarbeiten, auch wenn diese eine große Menge Parameter beinhaltet. Sollte es nicht möglich sein, eine Website ohne Parameter-URLs zu betreiben, muss sorgfĂ€ltig auf die Anzahl und Reihenfolge der Parameter geachtet werden.Es werden alle Filter und Parameter genutzt und nicht eingegrenzt.Google widerspricht zwar der Annahme, dass die Crawler nur dynamische URLs mit weniger als 3 Parametern lesen können. Gleichzeitig wird empfohlen die URL so kurz wie möglich zu halten. Wenn der Crawler die Parameter nicht als solche erkennt oder nicht richtig analysieren kann, fĂŒhrt das zum Verlust an wichtigen Informationen.
Sichtbarkeit, Usability, Crawlability, Linkaufbaurobots.txt, Sitemap XML, Noindex, Nofollow, Parameterbehandlung GMTmittelmittelhttp://googlewebmastercentral-de.blogspot.de/2008/09/alles-ueber-dynamische-urls.html
Quellcode QualitÀtDie QualitÀt des Quellcodes sollte so sauber wie möglich sein. Zwar lassen sich manche Fehler aufgrund von komplexer Programmierung nicht ganz W3C-konform beheben, allerdings sollte darauf geachtet werden den Quellcode so sauber wie möglich zu halten.xFehler im Quellcode gering wie möglich haltenCrawlability, Ranking, SichtbarkeitHTML, CSS, JavaScriptniedrig-mittelgering-hochhochhttp://bjoerntantau.com/onpage-seo-worauf-es-wirklich-ankommt-18122013.html
GrĂ¶ĂŸe des HTML-CodesIdealerweise beinhaltet die Navigation einer Website direkte Links auf alle Haupt- und ggf. auch Unterbereiche. Je mehr Bereiche eine Website umfasst, desto umfangreicher wird aber auch die Navigation, was sich unter UmstĂ€nden in einem großen Code-Block niederschlĂ€gt. Da das VerhĂ€ltnis von Code zu tatsĂ€chlichem Inhalt aber einen geringen Einfluss auf das Ranking hat, muss hier im Zweifelsfall ein vernĂŒnftiges Mittelmaß gefunden werden.Durch Komprimierung des Quellcodes kann die Ladegeschwindigkeit des Browsers beschleunigt werden.Crawlability, Ranking, Sichtbarkeit, UsabilityHTML, CSS, JavaScriptmittelmittelniedrighttp://bjoerntantau.com/onpage-seo-worauf-es-wirklich-ankommt-18122013.html
VerhĂ€ltnis zwischen Text und CodeDie Text-To-Code-Ratio hat einen gewisssen Einfluss auf das Ranking, weshalb der HTML-Code immer so effektiv und schlank wie möglich gestaltet sein sollte. JavaScripts und Stylesheets sollten daher prinzipiell ausgelagert werden, was sich auch wiederum positiv auf die Ladezeiten auswirkt.Die Textrate liegt bei 12% - Ideal ist eine Textrate von ĂŒber 25%.
Der Text auf der Startseite ist sehr umfangreich, bietet durch eine mangelnde Formartierung dem Leser aber kaum Anreize zum lesen.
Die Textrate sollte sich auf etwa 25% erhöhen. Dabei ist daruf zu achten, dass der Text den Usern einen Mehrwert bietetRanking, User ExperienceHTML, CSS, JavaScript, Whitespaces und Leerzeichenmittelniedirgmittelhttp://blog.woorank.com/2013/03/are-text-to-html-ratios-important/
Whitespaces und LeerzeichenUnnötige Leerzeichen und Whitespaces sollten vermieden werden, da sie den Quellcode unnötig aufblĂ€hen und die GrĂ¶ĂŸe der zu ĂŒbertragenden HTML-Datei beeinflußen.Unnötige Leerzeichen und Whitespaces sollten vermieden werden, da sie den Quellcode unnötig aufblĂ€hen und die GrĂ¶ĂŸe der zu ĂŒbertragenden HTML-Datei beeinflußen.Durch das Entfernen von Leerzeichen und Whitespaces können ĂŒberflĂŒssige Bytes entfernt werden was die Ladegeschwindigkeit des Browsers beschleunigtCrawlability, Ranking, SichtbarkeitHTML, CSS, JavaScript. Text to Code Rationiedrigniedirgniedrighttp://de.onpage.org/blog/tipps-fur-bessere-website-performance
XML-SitemapAnders als eine HTML-Sitemap ist die XML-Sitemap nicht fĂŒr Besucher sondern ausschließlich fĂŒr Suchmaschinencrawler und informiert diese ĂŒber alle existierenden Seiten einer Website. Eine XML-Sitemap sollte daher auf jeden Fall erstellt und aktuell gehalten werden. Gerade bei Erweiterungen der Website können Suchmaschinen die neuen Inhalte ĂŒber die sitemap.xml ĂŒblicherweise deutlich schneller finden und indexieren als ĂŒber den normalen Crawl-Vorgang.Kein XML-Sitemap im robots.txt, die XML-Sitemap ist nicht aktuell und enthĂ€lt Fehlerseiten.PrĂŒfen Sie ob die Sitemap in der robots.txt vorhanden ist. Eine XML-Sitemap sollte daher auf jeden Fall erstellt und aktuell gehalten werden. Gerade bei Erweiterungen der Website können Suchmaschinen die neuen Inhalte ĂŒber die sitemap.xml ĂŒblicherweise deutlich schneller finden und indexieren als ĂŒber den normalen Crawl-Vorgang.Crawlability, Indexierungrobots.txt Dateihochgeringhochhttp://seo.at/matt-cutts-sind-html-sitemaps-noch-zeitgemaess/
HTML-SitemapEine HTML-Sitemap, die alle wichtigen Kategorien oder sogar wichtige Einzelseiten auflistet, kann besonders bei sehr umfangreichen Websites einen erheblichen SEO-Vorteil bieten. Die Klicktiefe (wie viele Mausklicks von der Startseite entfernt ist ein Dokument?) hat einen Einfluss auf das Ranking. Wenn nun viele und tief verschachtelte Kategorien existieren, ist die Klicktiefe ĂŒber die normale Navigation ĂŒblicherweise recht hoch. Existiert aber eine "AbkĂŒrzung" ĂŒber eine von der Startseite aus zugĂ€ngliche Sitemap, verringert sich die Klicktiefe der Website unter UmstĂ€nden erheblich. Ziel sollte eine maximale Klicktiefe von 3 sein. Bei extrem großen Websites kann auch 4 oder 5 noch akzeptabel sein.Die HTML Sitemap fehlt, ist unvollstĂ€ndig.Erstellen Sie eine HTML Sitemap. Dies dient zur internen Verlinkung und besseren NutzerfĂŒhrung. Die Sitemap muss alle einzelnen Seiten beinhalten.Usability, Ranking,Klick- bzw. Navigationstiefe, Interne Verlinkunggering-mittelmittelniedrighttp://seo.at/matt-cutts-sind-html-sitemaps-noch-zeitgemaess/
AusschlĂŒsse in der robots.txtMit Hilfe der robots.txt können Crawler gezielt von Bereichen ausgeschlossen werden. Ein frei zugĂ€ngliches Entwicklungs- bzw. Testsystem sollte dabei unbedingt ein "Disallow: /" in der robots.txt haben. Auf Live-Systemen sollte regelmĂ€ssig geprĂŒft werden, ob die Inhalte der robots.txt noch sinnvoll sind und ob sie ggf. erweitert oder geĂ€ndert werden mĂŒssen.Falsche Verbote fĂŒr Seitenbereiche. Verbote fĂŒr falsche User Agent.Bearbeiten Sie Ihre robots.txt Datei. Diese Datei muss im Root liegen
/robots.txt

Außerdem muss die XML Sitemap in der robots.txt Datei erscheinen
Ranking, Sichtbarkeit, CrawlbarkeitNoindex, Nofollowmittelniedirgmittelhttp://www.suchmaschinentricks.de/aktuelles/seo/1468.php
Einsatz von JavaScriptWenn JavaScript mit Bedacht eingesetzt wird, schadet es nicht. Wenn aber Inhalt nur dynamisch ĂŒber JavaScript angezeigt wird (AJAX oder Ă€hnliche Techniken), können Suchmaschinen diesen nicht crawlen, was entsprechend negative Auswirkungen auf das Ranking hat.Ohne JavaScript werden die horizontale Hauptnavigation und die Produktbilder nicht angezeigt.Alle wichtigen Elemente - besonders die Navigation - mĂŒssen auch ohne JavaScript erreichbar sein!Ranking, Crawlability, IndexierungHTML, CSS, JavaScriptmittelhochhochhttp://googlewebmastercentral.blogspot.ca/2014/05/understanding-web-pages-better.html
HostnamenFĂŒr die Indexierung einer Seite ist wichtig zu analysieren, unter welchen Hostnamen eine Seite gefunden wird und in welchem Land die Seite gehostet wird. Auch die Sichtbarkeit der Host lĂ€sst sich mit https://tools.sistrix.de/domain/online-solutions-group.de/hosts prĂŒfen.2 Hostnamen: domain.de und staging.doamin.de mit gleichem InhaltWofĂŒr wird die Domain staging.domain.de genutzt? Dient die Subdomain als Testumgebung, sollte sie in der robots.txt gesperrt werden.Usabilty, Duplicat ContentServerkonfigurationhochhochniedrig
LadezeitenBeschreibungHÀufige FehlerLösungsvorschlagRelevanzAbhÀngigkeitNutzenAufwandPrioritÀtQuelle
If-Modified-Since" HeaderSuchmaschinencrawler arbeiten gerne mit dem HTTP Header "If-Modified-Since", um unnötige Seitenabrufe fĂŒr bereits indexierte und seitdem nicht mehr verĂ€nderte Inhalte zu minimieren. Der Webserver sollte also so konfiguriert sein, dass er diese Art Abfragen versteht und sinnvoll mit einer 304 Statusmeldung ("Not Modified") beantwortet.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelhochhttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824
LadereihenfolgeBeim Laden von verschiedenen Elementen sollte eine logische Reihenfolge beachtet werden. Es empfiehlt sich die ausgelagerten Stylesheet Elemente am Seitenanfang nach den META-Angaben unterzubringen. Die externen JavaScripte sollten erst am Ende der Website, allerdings vor dem -Tag, geladen werden. Hier ist allerdings zu beachten, dass es bei manchen Scripten unumgĂ€nglich ist sie am Seitenanfang, nach den CSS-Dateien, zu laden.JavaScript ist im Header verbaut. Außerdem kommt es zu einem mehrfache Laden von JavaScript-DateienEs empfiehlt sich die ausgelagerten Stylesheet Elemente am Seitenanfang nach den META-Angaben unterzubringen. Die externen JavaScripts sollten erst am Ende der Website, allerdings vor dem -Tag, geladen werden. Hier ist allerdings zu beachten, dass es bei manchen Scripten unumgĂ€nglich ist sie am Seitenanfang, nach den CSS-Dateien, zu laden.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelmittelhttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824
"keep alive" HeaderWenn mehrere Objekte ĂŒber die gleiche Domain geladen werden, um die Website darzustellen, empfiehlt es sich den ?keep alive? Befehl in den Webserver-Einstellungen zu aktivieren. Dadurch wird solange eine Verbindung zum Webserver aufrecht erhalten bis alle Elemente geladen sind und zwischendurch nicht unterbrochen. Dadurch muss der Ladevorgang nach jedem abgeschlossenen Objekt nicht gleich unterbrochen und beim nĂ€chsten Element wieder aufgenommen werden.Keep Alive ist nicht aktiviertDer ?keep alive? Befehl sollte in den Webserver-Einstellungen aktiviert werden. Dadurch wird solange eine Verbindung zum Webserver aufrecht erhalten bis alle Elemente geladen sind und zwischendurch nicht unterbrochen. Dadurch muss der Ladevorgang nach jedem abgeschlossenen Objekt nicht gleich unterbrochen und beim nĂ€chsten Element wieder aufgenommen werden.Usability, Ladezeit, SichtbarkeitServereinstellungenhochniedrigniedrighttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824
"browser caching" fĂŒr statische ElementeFĂŒr die verschiedenen Gruppen an Dateitypen sollte eine Aufbewahrungsfrist im Browsercache festgelegt werden. Dateien die sich weniger hĂ€ufiger Ă€ndern sollten dabei eine sehr lange Zeitspanne bekommen, wobei andere Elemente, die sich hĂ€ufiger Ă€ndern und neu geladen werden mĂŒssen, eine kĂŒrzere Zeitspanne haben sollten.Im Browsercache gibt es keine Aufbewahrungsfrist fĂŒr Dateien die sich selten Ă€ndernAufbewahrungsfrist fĂŒr Dateien die sich selten Ă€ndern einfĂŒhren um die Ladezeit zu verkĂŒrzen.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelhochhttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824
Statische Elemente kombinieren (Scripte & Styles)Stylesheets in so wenig Dateien wie möglich unterbringen, sodass dadurch auch die Serveranfragen verringert werden. Bei JavaScript Dateien gilt das gleiche Prinzip. Hier sind weniger Dateien oft mehr wert.Große CSS und JavaScript Dateien erhöhen die Serveranfragen und beeinflussen die Ladezeit.Statische Elemente wie Scripte und CSS mĂŒssen kombiniert werden. Durch die Verringerung der DateigrĂ¶ĂŸe werden die Serveranfragen verringert.Usability, Ladezeit, SichtbarkeitServereinstellungenhochhochmittelhttp://searchengineland.com/how-to-improve-crawl-efficiency-with-cache-control-headers-88824
Cookie VerwendungEs empfiehlt sich die Website-Elemente, die zur Darstellung der verschiedenen Seiten verwendet werden, ohne Cookie zu ĂŒbertragen. Daher sollte man das Cookie entsprechend auf eine bestimmte Ebene (zum Beispiel Root Verschnis) begrenzen und die Bild, Script und Styles Ordner ausgrenzen.Cookies verwendetServer so konfigurieren, dass keine Cookies fĂŒr statische Elemente gesetzt werdenUsability, Ladezeit, SichtbarkeitServereinstellungenniedrigmittelniedrighttp://de.onpage.org/wiki/Performance
Verwendung von CSS-SpritesBild-Objekte, die zur Darstellung des blanken Templates benötigt werden, kann man via CSS-Sprites schneller und effektiver Laden. Dadurch lassen sich weitere http-Requests einsparen.Es werden viele einzelne Grafikdateien fĂŒr Icon und Symbole verwendet.Die Verwendung von CSS Sprites kann http-Request einsparen und die Ladezeit verbessern.Usability, Ladezeit, SichtbarkeitServereinstellungenmittelmittelmittelhttp://www.tagseoblog.de/pagespeed-optimieren-mit-sprite-images-und-css-sprites
Komprimierung (gzip) verwendenAlle Objektgruppen von der Website sollten via Komprimierung (z.Bsp. gzip) komprimiert ĂŒbertragen werden. Diese Regelungen lassen sich in der .htaccess Datei oder direkt auf dem Webserver einstellen.Die Website verwendet keine HTML Komprimierung.Durch den Einsatz von gzip, einem Komprimierungsverfahren fĂŒr HTML, CSS, JavaScript wird die GrĂ¶ĂŸe der zu ĂŒbertragende Dateien verringert. Die Ladgeschwindigkeit einer Website wird positiv beeinflusst.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelmittelhttp://www.toprank.at/index.php/seo-blog/162-page-speed.html
serverseitiges CachingServerseitiges Caching arbeitet direkt auf dem Webserver und wird eingesetzt, um kompilierten Quellcode zwischenzuspeichern. Dem Webserver wird so Erhebliches an Berechnungszeit eingespart. Zwei der populĂ€rsten Lösungen hierfĂŒr sind Alternative PHP Cache (APC) und Memcached.Usability, Ladezeit, SichtbarkeitServereinstellungenhochmittelmittelhttp://www.seoranks.de/serverseitiges-caching-webseiten-geschwindigkeit-optimieren-teil-3/

11.2 Content

Wenn alle technischen SEO-Parameter sichergestellt sind, dann kann die Suchmaschine die Inhalte erfassen und indexieren. Ziel im Content ist es aus SEO-Sicht diesen so aufzubereiten, dass die Suchmaschine versteht, welches Thema die Unterseite behandelt und was die wichtigsten Keywords dabei sind. Erst dann kann die Suchmaschine den Inhalte einzelnen Keywords und Suchanfragen eindeutig zuordnen. Wenn das nicht gegeben ist, dann ist die Suchmaschine auf externe Signal angewiesen.

Tipp

Je mehr Keywords abgedeckt werden und je mehr Content existiert desto mehr Traffic und Umsatz wird durch SEO generiert

Zu den wichtigsten SEO-Content-Faktoren gehören:

  • Keywords: Basis fĂŒr den Content sind Keywords. Daher sollte vor dem Erstellen des Contents eine umfangreiche Keyword-Analyse durchgefĂŒhrt werden. Die wichtigsten Begriffe werden aus der Keyword-Analyse gewĂ€hlt. Danach wird entschieden, ob eine neue Seite dazu erstellt werden soll oder ob es zu diesem Keyword und Thema schon eine Seite gibt, die man nur noch optimieren muss.
  • Title-Tag: Der Title-Tag wird in der Google-Suche direkt als anklickbarer Verweis angezeigt. Diesen kann man als Webmaster direkt selbst beeinflussen. Wichtig ist, dass jede Seite einen einzigartigen Title bekommt. Diese sollte zudem zum Klicken animieren und das Fokus-Keyword der Seite enthalten. Das Keyword sollte so weit wie möglich vorne im Title platziert werden. Zudem muss man sich an einer ZeichenbeschrĂ€nkung von 70 Zeichen halten. Alles was lĂ€nger ist, wird in der Google-Suche abgeschnitten.
  • Meta-Description: Die Meta-Description ist eine Beschreibung der jeweiligen Seite. Diese wird in den Suchergebnissen als zweizeiliger Textabschnitt angezeigt. Wie der Title sollte auch die Meta-Description je Seite einzigartig sein. Hier hat man eine ZeichenbeschrĂ€nkung von ca. 160 Zeichen, an der man sich orientieren sollte. Alles was lĂ€nger ist, wird abgeschnitten. In der Meta-Description sollten auch die wichtigsten Keywords der Zielseite enthalten sein. Zudem sollte die Meta-Description zum Klicken animieren.
  • Keyword-Einsatz: Neben dem Einsatz der relevanten Keywords fĂŒr die Seite im Title und in der Meta-Description sollten die Keywords auch im Fließtext und in Überschriften untergebracht werden.
  • Bilder: Bilder lockern den Content etwas auf. Die Bilder sollten aber auch SEO-konform ausgezeichnet werden. Vor allem das Alt-Attribut ist dabei aus SEO-Sicht relevant. Das Alt-Attribut sollte den Inhalt des Bildes gut beschreiben. Gleichzeitig sollten wichtige Keywords der Seite untergebracht werden.
  • Videos: Videos können dabei helfen, dass Nutzer lĂ€nger auf der Seite verweilen. Eine höhere Verweildauer könnte wiederum ein Indiz sein, dass der Nutzer zufrieden ist. Dort wo es sinnvoll ist, sollten daher gezielt Videos zum Einsatz kommen. Hinsichtlich SEO (Suchmaschinenoptimierung) sollten bei Videos die Meta-Angaben befĂŒllt werden, damit Suchmaschinen den Inhalt des Videos bestimmen können. Dazu sind Video-Titel und die Video-Beschreibung wichtig. Zudem sollte man auch darauf achten, dass der Pagespeed der Seite aufgrund der Video-Einbindung nicht negativ beeinflusst wird. ZusĂ€tzlich sollten Videos mit schema.org ausgezeichnet werden. Bei vielen Videos auf der Website, kann auch eine Video-Sitemap erstellt werden, um alle Video-URLs fĂŒr eine effiziente Indexierung an Google zu ĂŒberreichen.
  • Übersichtlichkeit: Eine ĂŒbersichtliche Text- und Content-Struktur hilft nicht nur Nutzern sich besser zu recht zu finden, sondern auch Suchmaschinen. Daher sollten gezielt Elemente eingesetzt werden, die zu einer besseren Übersichtlichkeit beitragen. Dazu gehören Formatierungen wie fett, farblich hervorgehoben und unterstrichen sowie Elemente wie Listen, Tabellen, Überschriften. ausreichend AbstĂ€nde oder AbsĂ€tze.
  • Einzigartigkeit: Jeder Text, der verfasst wird, muss einzigartig sein. Einzigartig heißt, dass es den Text in der Form auf keiner anderen Website geben darf. Falls ganze Texte kopiert und auf einer anderen Seite wiederveröffentlicht werden entstehen Kopien. Dabei spricht man dann von Duplicate Content. Im SEO (Suchmaschinenoptimierung) hat man dann das Problem, dass diese Seiten kaum Chancen haben auf ein Ranking, da sie Google aussortiert. Hintergrund ist, dass Google keine doppelten Ergebnisse ausspielen möchte, da dies fĂŒr den Nutzer keinen Mehrwert darstellt.
  • Interne Links: Auf einer Website existieren verschiedene Navigationsmöglichkeiten. Neben dem HauptmenĂŒ gibt es Footer-Links, Sidebar-Links oder auch Links zu verwandten Themen und Seiten meist am Ende eines Beitrags. Eine weitere gute Möglichkeiten wie Nutzer und Suchmaschinen weitere Seite und Inhalte erfassen können, sind interne Links aus dem Text heraus. Diese sind fĂŒr SEO besonders wichtig, da man mit dem Link-Text und dem Link-Titel Informationen ĂŒber die verlinkte Seite mitgeben kann. Diese Informationen werden von Suchmaschinen ausgelesen, um die Ziel-Seite besser einordnen zu können. Interne Links sind ein wichtiger Hebel im SEO (Suchmaschinenoptimierung) und sollten nicht vernachlĂ€ssigt werden. Aus diesem Grund sollten alle wichtige Inhalte gezielt daraufhin ĂŒberprĂŒft werden, ob sinnvolle interne Links gesetzt sind.
  • Responsive: Unter Responsive versteht man ein Webdesign, welches auf die Eigenschaften den genutzten EndgerĂ€ts reagieren können. Der Begriff wird oft in Zusammenhang mit Smartphones gebracht. Da heutzutage im Internet viel ĂŒber mobile GerĂ€te gesurft wird, sollten Websites auch mobile gut bedienbar sein. Dabei wird das Webdesign so erstellt, dass es sich automatisch an das EndgerĂ€t anpasst. Eine Website ohne Responsive Design ist heutzutage nicht mehr wegzudenken. Aus diesem Grund sollten SEO-Analysen auch immer mit mobilen EndgerĂ€ten durchgefĂŒhrt werden.
  • Inhaltstiefe: Je nach Thema muss auch eine bestimmte Inhaltstiefe gegeben sein. Komplexe Themen lassen sich nicht in ein paar AbsĂ€tzen erklĂ€ren. Hier sind deutlich mehr Informationen in Text-, Bild- und Videoform notwendig. Je tiefer ein Thema behandelt wird, desto grĂ¶ĂŸer wird auch die Seite tendenziell. Hier ist dann vor allem wieder eine gute Übersichtlichkeit und Struktur wichtig. Das sieht man auch bei sehr langen Wikipedia-Artikeln. Mit einem Inhaltsverzeichnis oder Akkordeon im mobilen Bereich stellt aber Wikipedia eine ĂŒbersichtliche Struktur sicher. Andersrum sollten Themen, die in wenigen AbsĂ€tzen gut erklĂ€rt werden können, nicht unnötig und kĂŒnstlich in die LĂ€nge gezogen werden.
  • AktualitĂ€t: Suchen Nutzer bei Google nach Informationen, dann erwarten sie sich von der Suchmaschine, dass auch immer aktuelle Inhalte ausgegeben werden. Aus diesem Grund versucht Google dem Nutzer auch immer die aktuellen Informationen zu prĂ€sentieren. Das heißt fĂŒr die eigene Website, dass Informationen immer laufend angepasst und aktuell gehalten werden sollten. Bei einem Content-Audit sollte daher auch die AktualitĂ€t der Inhalte ĂŒberprĂŒft werden. Auf dieser Basis lassen sich Optimierungen durchfĂŒhren, die zu besseren Rankings fĂŒhren können.

Nur ĂŒber die Abdeckung weiterer Keywords kann Traffic laufend auf die Webseite kommen. Da fĂŒr jedes Keyword eine passende Unterseite/Content-Seite existieren muss, ist es wichtig geeignete Content-Arten aufzubauen und zu nutzen. Hier haben wir fĂŒr Sie eine Übersicht ĂŒber die verschiedenen Content Arten, die Sie dafĂŒr nutzen können:

Content Arten - Strategien

© OSG

 

Zum Content Glossar

Zum Bilder SEO Artikel

Zum Video SEO Artikel

METATAGSMetaTagsHÀufige FehlerLösungsvorschlagRelevanzAbhÀngigkeitNutzenAufwandPrioritÀtQuelle
title-TagDer Seitentitel im title-Tag ist der wichtigste OnPage-Faktor. Er wird immer in den Suchergebnissen angezeigt und fungiert daher als "Köder" fĂŒr potentielle Besucher, weshalb er erstens eine hohe Klickmotivation bieten und zweitens immer die wichtigsten Keywords dieser Seite enthalten sollte. Der Seitentitel sollte nicht lĂ€nger als 55 Zeichen und möglichst fĂŒr jede Seite individuell sein.Seitentitel ist zu lang und wird in der Serps abgeschnitten und enthĂ€lt keine wichtigen Keywords.Mit dem Previewtool wird sofort erkennbar ob der Titel abgeschnitten wird. Ist der Titel zu lang, muss eine Anpassung durchgefĂŒhrt werdenCTR, Rankingkeinehochhochhochhttp://t3n.de/news/seo-tipps-title-535760/
description-MetatagIn der Meta-Description sollte eine kurze, mit den wichtigsten Suchbegriffen ausgestattete Zusammenfassung des Seiteninhalts hinterlegt werden. Abgesehen davon, dass die Meta-Description in Bing und Yahoo! durchaus noch ein wenig zum Ranking beitrĂ€gt, kann eine Meta-Description als Vorschau in den Suchergebnissen erscheinen und durch geschickte Formulierung deutlich die Klickrate erhöhen. Die Meta Description sollte nicht mehr als 150 Zeichen lang sein.Keine Unique Beschreibung, wichtige Keywords fehlen, keine Produkte, Branding fehlt, keine USP oder Call-to-ActionDie Meta Description sollte nicht mehr als 150 Zeichen lang sein. Jede Meta Description muss einzigartig sein. Hauptkeywords und Brands dĂŒrfen nicht fehlen. Die Ansprach muss persönlich sein und eine Call-to-Action enthalten.Klickrate, Ranking, Usabilitykeinehochmittelmittelhttp://www.sistrix.de/frag-sistrix/onpage-optimierung/meta-element-meta-tag/wie-sieht-die-optimale-meta-description-aus/
robots-AnweisungenSuchmaschinen halten sich recht strikt an entsprechende noindex- sowie follow-/nofollow-Anweisungen im Meta-Abschnitt einer Seite. Da diese Angaben sowohl positive als auch negative Auswirkungen haben können, muss im Einzelnen sehr aufmerksam geprĂŒft werden, ob die verwendeten Angaben sinnvoll sind oder vielleicht sogar eigentlich wichtige Inhalte ausgeschlossen werden.Falsche Verwendung von robots-Anweisungen. Nofollow Attribut fĂŒr interne Verlinkung.
Falsch setzen von follow Attribut fĂŒr geschĂŒtzte Inhalte.
Bauen Sie auf allen Seiten, die Sie im Index haben wollen eine robots-Anweisung index,follow ein.Bei Seiten mit privaten Kundenangaben sollte die robots-Anweisung index,nofollow eingebaut werden. Varianten sollten auf gesetzt werdenRanking, Crawlability, Sichtbarkeitkeineniedrig-mittelmittelmittelhttp://www.suchmaschinentricks.de/aktuelles/seo/1468.php
refresh-MetatagWeiterleitungen sollten generell nur ĂŒber HTTP-Statuscodes gelöst werden. Jede andere Art von Redirect kann und darf nur eine befristete Notlösung sein.Der Refresh Metatag ist nach W3C veraltet und sollte nicht mehr verwendet werden.Entfernen Sie jegliche Art von Meta-Refreshes und ersetzen Sie diese durch HTTP-Weiterleitungenkeinekeinenmittelmittelhttp://www.platinpower.com/seo/sinnvolle-redirects-bedachtes-weiterleiten/
Facebook Open Graph META TagsMit den Facebook META-Tags haben Webseitenbetreibe die Möglichkeit Inhalte und Bilder fĂŒr Facebook bereitzustellen. Damit ist es möglich Inhalte und Bilder, die geteilt werden zu kontrollieren.Facebook Meta Tags werden nicht verwendet. Bei teilen von Inhalten auf Facebook werden unterschiedliche Bilder und Inhalte eingeblendet.xSocial Mediakeineniedrigniedrigniedrighttp://davidwalsh.name/facebook-meta-tags
Twitter META TagsIst so Ă€hnlich wie der Facebook Meta Tag. Mit denTwitter META Tags haben Webseitenbetreibe die Möglichkeit Inhalte fĂŒr Twitter bereitzustellen. Damit ist es möglich Inhalte und Bilder, die geteilt werden zu kontrollieren.Twitter Meta Tags werden nicht verwendet. Bei teilen von Inhalten auf Twitter werden unterschiedliche Inhalte eingeblendet.xSocial Mediakeineniedrigniedrigniedrighttp://davidwalsh.name/twitter-meta-tags
language-MetatagSollte generell verwendet werden, auch wenn die sprachliche Zuordnung ĂŒber die Domain-Endung oder sonstige Kriterien eigentlich schon festgelegt ist. Suchmaschinen erkennen zwar autonom die Sprache einer Seite anhand des tatsĂ€chlichen Inhalts und anderer Faktoren, berĂŒcksichtigen darĂŒber hinaus aber dennoch diese Meta-Information.language-Metatag hat nach dem W3C an Bedeutung verloren. Der hreflang Standard hat sich mittlerweile etabliert.Der hreflang Standard hat sich mittlerweile etabliert.Internationalisierung, Rankingkeinehochniedrigniedrighttp://webdesign.tutsplus.com/articles/meta-tags-and-seo--webdesign-9683
keyword-MetatagDas Keyword-Metatag hat fĂŒr Google praktisch keinerlei Bedeutung mehr und auch in Bing/Yahoo! verliert es zunehmend an Bedeutung. Generell kann diese Meta-Information also auch weggelassen werden. Praktischer Nutzen ergibt sich nur, wenn die interne Suchfunktion einer Website diese Information mit auswertet. Dann macht eine saubere Verschlagwortung Sinn, um die Suchergebnisse fĂŒr die Website-Besucher zu verbessern.Keyword hat an Bedeutung verlorenReduzieren sie den keyword-meta-Tag auf 2-3 relevante Wörter, um Keywordspamming zu vermeiden.keinekeinenniedrigniedrig
Geo-TaggingFĂŒr regionale Inhalte ist es sinnvoll, entsprechende Meta-Tags unterzubringen, um Suchmaschinen den örtlichen Bezug einer Seite zu signalisieren. In der Regel fĂŒhrt dies besonders bei SuchvorgĂ€ngen mit regionalem Bezug zu deutlich verbesserten Platzierungen.GEO Tagging ist nach W3C in HTML 5 nicht zulĂ€ssig.keinekeinenniedrigniedrighttp://www.brightlocal.com/2013/04/03/why-geo-tagging-your-images-for-local-seo-hasnt-disappeared/
INHALTLICHE EXTRASBeschreibungHÀufige FehlerAbhÀngigkeitRelevanzNutzenAufwandPrioritÀtQuelle
PDF-DokumenteSuchmaschinen indexieren PDF-Dokumente ĂŒblicherweise vollstĂ€ndig und besonders Google zeigt diese auch gerne als Suchergebnis an. Sinnvoll ist das Erstellen von PDF-Dokumenten allerdings nur fĂŒr kurze Übersichten wie DatenblĂ€tter oder aber fĂŒr große, mehrseitige Dokumente wie Ebooks und dergleichen, da dies auch deutlich die Benutzerfreundlichkeit erhöht. Nicht zu empfehlen ist, per se von Inhaltsseiten eine PDF-Version anzubieten (es sei denn fĂŒr Druck-Zwecke - siehe hierzu den entsprechenden Punkt im Abschnitt Architektur).Als PDF ist nur die DatenschutzerklĂ€rung hinterlegt.niedrigniedrigniedrigniedrighttp://www.seo-trainee.de/seo-fuer-pdf/
VideosSuchmaschinen zeigen gerne relevante Videos als Suchergebnis. Hier gilt jedoch, dass eines der wichtigsten Ranking-Kriterien die Anzahl der Abrufe ist. Wenn die Videos auf der eigenen Website gehostet werden, wird die Anzahl der Abrufe also in den meisten FĂ€llen ĂŒberschaubar sein. Sinnvoller ist daher, die Videos beispielsweise in einem eigenen Youtube-Channel oder bei einem anderen Video-Anbieter zu hosten, dort zu promoten und nicht nur eine entsprechend vielfache Anzahl an Abrufen zu generieren, um in die Video-Suche aufzurĂŒcken, sondern hierĂŒber generell mehr Aufmerksamkeit zu erreichen als das normalerweise ĂŒber selbst gehostete Videos möglich ist. Folgende Fehler sollten dabei vermieden werden:
- Falsche Titel, Schlagworte oder Beschreibungen
- Nutzung von YouTube fĂŒr das Video Streaming
- Erstveröffentlichung auf externen Portalen
- Gleiches Video, mehrere URLs
- Verzicht auf Video-Sitemap
Keine Videos vorhanden.Ressourcenmittelmittelhochniedrighttp://www.sistrix.de/news/video-seo-vergebenes-potential/
Social Mediasoziale Signale aus Facebook, Twitter & Co. korellieren extrem stark mit guten Google-Rankings. Dies muss im Rahmen der Erstellung einer Social Media Strategie berĂŒcksichtigt werden.Die Seite ist auf facebook, Twitter und Google+ aktivmittelgeringmittel
Rich SnippetsSnippets sind die wenigen Zeilen Text, die unter jedem Suchergebnis erscheinen. Sie vermitteln Nutzern eine Vorstellung davon, was die Seite enthĂ€lt und warum sie fĂŒr ihre Suchanfrage relevant ist. Es können auf der Website vorhandene Beurteilungen, Personen, Produkte, Unternehmen, Rezepte, Ereignisse, Musik usw. mit einem speziellen Format (Mikrodaten, Mikroformate, RDF) im Quelltext ausgezeichnet und so das Standard-Snippet "angereichert" werden (=Rich Snippets). Dadurch erhöht sich die Click-Through-Rate zum Teil erheblich.Momentan werden keine Rich Snippets in den SERPs angezeigthochmittelmittelhttp://onlinemarketing.de/news/google-autorship-google-entfernt-profilbilder-sowie-die-angaben-ueber-die-google-kreise
Google Authorship: Google entfernt Profilbilder sowie Angaben ĂŒber die Google+ Kreise
Bilder im TextEine reine Textseite ist meist fĂŒr Besucher zu "langweilig", wohingegen eine reine Bilderseite eine "SEO-SĂŒnde" ist. Text mit thematisch relevanten Bildern aufgelockert ist dagegen perfekt und eine derart aufgebaute Seite erzielt ĂŒblicherweise auch ein besseres Ranking als eine reine Textseite.Text und Bild VerhĂ€ltniss ist in Ordnung. Bie alt-Parameter sollten, wenn möglich, ein themenrelevantes Keyword enthaltenKundenbindunghochhochniedrighttp://www.searchmetrics.com/de/services/seo-glossar/alt-attribut/
Keywords in Alt-Parametern von BildernBei verlinkten Bildern nimmt der Alt-Parameter die Stelle des verlinkten Textes ein, weshalb er entsprechend wichtig ist. Bei nicht verlinkten Bildern ist die Verwendung des Alt-Parameters dennoch ratsam, da Suchmaschinen hierĂŒber etwas ĂŒber den Inhalt des Bildes erfahren und dieses Bild also beispielsweise in der Bildersuche zu diesem Begriff erscheinen können. Seiten, die den Suchbegriff zusĂ€tzlich zu den anderen relevanten Stellen (Seitentitel, Überschriften, eigentlicher Text) auch im Alt-Parameter eines Bildes enthalten, haben einen zusĂ€tzlichen Ranking-Vorteil.Das Alt Attribut wird zum Teil verwendet. Auf der Startseite wurden 4 Bilder ohne alt-Attribut gefunden.hochhttp://www.searchmetrics.com/de/services/seo-glossar/alt-attribut/
Bilder statt TextlinksBilder statt Text fĂŒr Verlinkungen zu verwenden sollte immer zweite Wahl sein. Wenn nicht anders möglich, muss das Bild unbedingt mit einem alt-Parameter ausgestattet werden, in dem sinnvolle Keywords verwendet werden.Es ist sowohl das Produktbild, wie auch der Text klickbarniedrigniedrigmittelmittel
FlashAuch wenn besonders Google die Inhalte von Flash-Dateien immer besser versteht und SWF-Dateien auch ab und zu in Suchergebnissen erscheinen, kann und darf man sich nicht darauf verlassen. Flash sollte also immer nur zusÀtzliche Informationen oder Illustrationen bieten, aber niemals exklusiv wichtige Inhalte vorhalten.niedrigniedrighochniedrighttp://www.netzmarketing.ch/gratis-ratgeber/onpage-seo/flash-seiten-websites-und-seo
WerbungDer Bereich der Website above-the-fold darf nicht durch Werbung (Banner etc.) die relevanten Textinhalte in den nicht-sichtbaren Bereich verdrÀngen. Google bestraft diese Praxis seit neuestem recht scharf.niedrighochhttp://de.onpage.org/blog/above-the-fold-webseiten-richtig-aufbauen

12. Der Inhalt einer Website

Suchmaschinen haben sich in den letzten Jahren stark entwickelt. Es genĂŒgt nicht mehr, Inhalte nach Schema F zu konstruieren, um gut zu ranken. Inzwischen werden vor allem Webseiten positiv bewertet, die nĂŒtzlich fĂŒr menschliche Besucher sind. Gut aufbereitete Texte mit hoher Informationsdichte sind ein Anfang. Aber entscheidend ist, dass der Beitrag fĂŒr Leser etwas zu bieten hat. Bei dem Erstellen von Inhalten ist auch der Trend “Inbound Marketing” zu beachten. Denn fĂŒr Nutzer stehen besonders Informationen, Wahlfreiheit, Interaktion und Wissen im Vordergrund.

Zum Inbound Marketing Artikel

In diesem Abschnitt der SEO Guideline geht es deshalb um die Frage: Wie lÀsst sich der Inhalt einer Webseite optimieren?

12.1 Lesenswerte Texte werden belohnt

Laut der Google EinfĂŒhrung in die Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung) hat ein Text mit echtem Mehrwert den wahrscheinlich grĂ¶ĂŸten Einfluss auf das Ranking einer Webseite. Hochwertige Inhalte fĂŒhren dazu, dass Leser sie gerne mit Freunden und Kollegen teilen. Das leuchtet ein: Man möchte sein Umfeld nicht langweilen, sondern wertvolle und gut dargebotene Informationen weitergeben. Einen tollen Artikel teilt man deshalb bereitwillig ĂŒber soziale Medien, Apps oder E-Mail. Man verlinkt ihn in Foren und auf Blogs als gute Informationsquelle. Oder man erzĂ€hlt anderen Menschen ganz allgemein von der tollen Webseite mit den lesenswerten Artikeln. Diese natĂŒrliche Art, Inhalte zu verbreiten, wirkt sich positiv auf den Ruf einer Webseite aus – auch bei Suchmaschinen.

Jedoch reicht die einmalige Contenterstellung fĂŒr ein Keyword nicht aus. Es sollte mittels eines geeigneten Tools laufend geprĂŒft werden, wie sich das Ranking fĂŒr ein Keyword entwickelt. So kann nachvollzogen werden, welche Seite fĂŒr ein Keyword rankt und welcher Inhalt fĂŒr welche VerĂ€nderungen verantwortlich ist. Sollte sich das Ranking verschlechtern, kann man augenblicklich mit neuen Inhalten reagieren und die Wirkung wiederum beobachten. Die Rankingentwicklung können Sie z.B. kostenlos ĂŒber die OSG Performance Suite App prĂŒfen.

Beispiel eines Rankingverlaufs nach dem HinzufĂŒgen von neuem Content

© Online Solutions Group

Empfohlen:

  • Neuheiten: Der Reiz des Neuen greift auch bei Inhalten im Internet. Texte sind viel interessanter, wenn sie neue Informationen enthalten oder einzigartig formuliert wurden.
  • Zielgruppengerechte Texte: Verschiedene Keywords zum gleichen Thema locken teils sehr unterschiedliche Zielgruppen mit stark auseinandergehenden Vorkenntnissen an. SEO-Experten raten: Die Texte sollten so gestaltet sein, dass sie der jeweiligen Gruppe bestmöglich dienen.
  • Ein Keyword pro Seite: FĂŒr jedes Keyword sollte eine eigene Landingpage erstellt werden.
  • Keyword weit vorne platzieren: Das Keyword sollte weit vorne im Text erscheinen. So weiß jeder sofort (auch der Crawler), dass es im Text um das Keyword geht.
  • Fettungen einfĂŒgen: Fettungen von wichtigen Wörtern und Passagen erleichtern das Lesen. Das mag auch Google. Aber: nicht zu viele Fettungen einfĂŒgen. Das macht den Text unĂŒbersichtlich.

Zu vermeiden:

  • Inhalte kopieren: Duplicate Content ist unbedingt zu vermeiden.
  • Schlechte Rechtschreibung und Grammatik: Zu viele Fehler im Text stören den Lesefluss und wirken unprofessionell. Das wertet sogar inhaltlich ansprechende Artikel ab.
  • Kein Keyword-Spamming: Das Keyword sollte nicht zu hĂ€ufig verwendet werden. Beim Lesen des Textes darf die Keywordmenge nicht unnatĂŒrlich hoch erscheinen.
  • FĂŒr die Suchmaschine schreiben: Texte sollten trotz SEO (Suchmaschinenoptimierung) fĂŒr menschliche Leser geschrieben werden.

12.2 Lange Texte sind beliebter, aber kein Muss

FĂŒr die optimale LĂ€nge eines Textes gibt der SEO Guide von Google keine Tipps. Vermutlich liegt das daran, dass es keine “magische” Wortgrenze gibt. Lange Zeit galt unter SEO-Experten eine LĂ€nge von 200 – 300 Wörter als ideal. Neueste Erkenntnisse zeigen aber, dass Nutzer tendenziell lĂ€ngere Inhalte bevorzugen (siehe Grafik unten). Stellen Sie aber unbedingt sicher, dass die Inhalte so hochwertig wie möglich sind. John MĂŒller von Google Schweiz bestĂ€tigt: Es gebe keine bestimmte MindestlĂ€nge; vielmehr die QualitĂ€t des Inhalts sei entscheidend.

Seiten mit lÀngerem Content tendenziell mit besserem Ranking

© Searchmetrics

Tipp

PrĂŒfen Sie die TextlĂ€ngen Ihrer Wettbewerber und erstellen Sie Texte, die 10 – 30 % lĂ€nger sind.

Empfohlen:

  • QualitĂ€t vor QuantitĂ€t: Manchmal lĂ€sst sich eben nicht viel zu einem Thema sagen. Das ist in Ordnung! Solange der Text einen Mehrwert bietet und ansprechend geschrieben ist, hat er gute Chancen.
  • Themen ganzheitlich behandeln: Leser bevorzugen es, wenn sie möglichst viele Informationen auf einen Streich bekommen. Statt vieler kurzer HĂ€ppchen möchten sie lieber einen langen Text lesen, der alle wichtigen Aspekte beleuchtet.
  • Inhaltsverzeichnis: Der Text ist sehr lang und behandelt viele Facetten? Dann kann ein Inhaltsverzeichnis helfen. Unter anderem liefert es einen schnellen Überblick ĂŒber den Inhalt eines Artikels. Baut man zusĂ€tzlich eine Sprungfunktion ein, fĂ€llt auch die Navigation innerhalb des Textes leichter.

Zu vermeiden:

  • Texte kĂŒnstlich aufblĂ€hen: Wenn bereits alles Wichtige erwĂ€hnt wurde, muss der Text nicht auf Biegen und Brechen ausgedehnt werden. ÜbermĂ€ĂŸig viele FĂŒllworte, inhaltliche Wiederholungen und leere Phrasen senken die QualitĂ€t.
  • Den Leser mit Textblöcken erschlagen: Ein guter Text ist durch AbsĂ€tze, ZwischenĂŒberschriften, AufzĂ€hlungen, Tabellen oder multimediale Inhalte aufgelockert. Eine sinnvolle Struktur macht jeden Text angenehmer zu lesen und leichter zu verstehen. Außerdem wirkt er von vornherein interessanter, da er so auch optisch ansprechender ist.

12.3 Keyworddichte

Bei der Keyworddichte handelt es sich um den Anteil der Keywords an der gesamten Wortanzahl. Logischerweise ist die Wahrscheinlichkeit, dass ein Text fĂŒr ein bestimmtes Keyword relevant ist grĂ¶ĂŸer, wenn dieses Keyword mindestens einmal im Text vorkommt, als wenn es nicht erscheint. Jedoch ist eine grĂ¶ĂŸere Keyworddichte nicht zwingend gleichbedeutend mit einer höheren Relevanz. Besteht ein Text zum Beispiel zur HĂ€lfte aus einem Keyword (Keyworddichte von 50 %) ist er wohl kaum informativ fĂŒr den Leser. Deshalb wird ein zu hĂ€ufiges Vorkommen eines Wortes von Google mit einem schlechten Ranking bestraft. Dadurch soll das sogenannte Keyword Stuffing verhindert werden, welches frĂŒher oft angewendet wurde, um ein gutes Ranking zu erreichen.

Heute wird fĂŒr die Bestimmung der optimalen KeywordhĂ€ufigkeit öfter der WDF*IDF-Wert verwendet als die Keyworddichte, das trifft vermutlich auch auf Suchmaschinen zu. Bestandteile dieser Kennzahl sind die Within Document Frequency (WDF) und die Inverse Document Frequency (IDF). WDF bezieht sich auf die Anzahl eines im Text vorkommenden Wortes bezogen auf die gesamte Anzahl der Wörter, IDF dagegen auf die Anzahl aller Seiten im Index, die dieses Wort enthalten. So kann das einmalige Vorkommen eines Wortes in einem Text schon einen Hinweis auf eine hohe Relevanz geben. Voraussetzung dafĂŒr ist, dass dieses Wort nur in einem sehr geringen Anteil aller Webseiten des Index erscheint. Umso grĂ¶ĂŸer der WDF*IDF-Wert, desto höher ist die HĂ€ufigkeit eines Wortes im Vergleich zu anderen Seiten.

Mit dem WDF*IDF-Tool von seobility können die ersten 10 Suchtreffer fĂŒr ein Keyword analysiert werden. Dabei werden die Wörter mit den höchsten WDF*IDF-Werten angezeigt. Das kann hilfreich sein, wenn es darum geht den Content einer Seite festzulegen. Jedoch sollte nicht jedes dieser Wörter eingebaut werden, da viele von ihnen keinen Bezug zum Thema haben dĂŒrften.

Der Screenshot unten zeigt eine WDF*IDF-Analyse des Keywords “Suchmaschinenoptimierung”. Hier ist der Begriff “Suchmaschinenoptimierung” derjenige mit dem höchsten durchschnittlichen WDF-IDF-Wert gefolgt von “SEO” und “Google”.

Beispiel einer WDF*IDF-Analyse

© Seobility

12.4 Interne Links richtig beschriften

In Googles SEO (Suchmaschinenoptimierung) Guide kommt auch die wirksame Verwendung von internen Links zur Sprache. Kernaussage ist:  Links sollten mit einem möglichst aussagekrĂ€ftigen Text versehen werden. Das erleichtert es Suchmaschinen, die verlinkten Seiten thematisch einzuordnen. Außerdem gibt Google folgende Tipps:

Empfohlen:

  • PrĂ€zise Linktexte: Optimal ist ein kurzer Linktext, der das Thema des verlinkten Beitrags auf den Punkt bringt.
  • Links sichtbar machen: Links sollten sich farblich vom Rest des Textes unterscheiden

Zu vermeiden:

  • Nichtssagender Linktext: Texte wie “hier” oder “mehr” sind nicht hilfreich.
  • Langer Ankertext mit ĂŒbermĂ€ĂŸig vielen Keywords

Außerdem sollten auf einer Seite nicht ĂŒbermĂ€ĂŸig viele Markennamen verlinkt werden. Das wirkt unnatĂŒrlich. Bei externen Links kann es sinnvoll sein das “nofollow”-Attribut zu verwenden, wenn verhindert werden soll, dass der Crawler diesem Link folgt.

13. Mobile First: Wie Sie Ihre Website mobilgerecht optimieren

Statistisch gesehen lag bereits im Jahr 2016 die mobile Nutzung des Internets in Deutschland bei 81%, Tendenz steigend, so der Statistikservice Destatis. Die Frage danach, ob ein Mobildesign benötigt wird, erĂŒbrigt sich also. Soll Ihre Website Besucher anziehen und ihnen einen Service bereitstellen, ist die Einrichtung eines mobilen Designs unerlĂ€sslich.

13.1 Mobile First

Bereits Ende 2016 begann Google, seinen Mobile First Index als Hauptindex zu etablieren. FĂŒr Entwickler bedeutet dies: Nur wer eine nach dem Google SEO (Suchmaschinenoptimierung) Guide optimierte Website fĂŒr MobilgerĂ€te anbietet, kann heute perfekt gerankt werden. Auch darum lohnt sich die Überarbeitung bestehender Layouts. Der Hinweis auf diesen speziellen Algorithmus fehlt in dem Guide leider, dabei macht er einen großen Teil der heutigen Rankingerfahrung aus.

13.2 Verschiedene Arten der Anpassung fĂŒr MobilgerĂ€te

Bei der Optimierung Ihrer Website fĂŒr MobilgerĂ€te können Sie sich zwischen verschiedenen Arten des Anpassens entscheiden. Der Google SEO Guide selbst unterscheidet nach Responsive Webdesign, dynamischer Bereitstellung und der Nutzung verschiedener URLs. Das dynamische Design wird heute kaum genutzt. Durchgesetzt haben sich responsive Design und Zweit-URL, wobei das responsive Design in punkto Aufbaugeschwindigkeit gewinnt. Die Nutzung verschiedener URLs verlangt nach dem Aufsetzen einer zweiten Website, die das mobile Design berĂŒcksichtigt. Zu der mobilen Website wird umgeleitet, wenn ein MobilgerĂ€t erkannt wird. Als Nutzer erkennen Sie die dritte Variante zumeist an der m.URL-Weiterleitung (Beispiel: sz-online.de, spiegel.de / m.sz-online.de, m.spiegel.de).

Tipp

Zwischen m.domain.de und responsive Design gibt es rankingtechnisch keine Unterschiede.

Besucher browsen heute laut AdColony/Wirtschaftswoche mobil zu 90% auf Smartphones und 10% auf Tablets, dabei ĂŒberwiegen 55% AndroidgerĂ€te den 45% Apple-GerĂ€ten. Andere MobilgerĂ€te, die auch im Google Guide genannt werden, können daher vernachlĂ€ssigt werden. Doch die meisten Nutzer bedienen sich dabei Apps statt Browsern. Das Investieren in eine eigene Mobilapp, die von Google automatisch vorgeschlagen wird, wenn eine mobile Website geöffnet werden soll, kann daher sehr sinnvoll sein. Voraussetzung dafĂŒr ist, dass die App von Google indexiert wurde.

13.3 Besonderheiten mobiler Layouts

Bei der Einrichtung von speziellen Mobiledesigns sollten Entwickler das AusgabegerĂ€t stĂ€ndig vor Augen haben. Smartphonebildschirme sind deutlich kleiner, bilden jedoch heute oft die gleiche Auflösung ab wie ein Desktop-Monitor. Responsive Layouts werden hĂ€ufig auch auf Smart-TVs oder Konsolenbildschirmen ausgegeben. Das heißt, dass Entwickler schlicht nicht wissen können, wie der Nutzer Text und Bilder sieht. Responsive Designs bringen hier den großen Vorteil mit sich, dass sie sich selbststĂ€ndig anpassen und die Darstellungsoptionen erkennen. In den meisten GerĂ€ten kann der Nutzer außerdem selbststĂ€ndig SchriftgrĂ¶ĂŸen anpassen.

Neben Schrift- und BildergrĂ¶ĂŸe wird auch das MenĂŒ mobil anders abgebildet. Navigationsleisten werden zu Drop-Down-MenĂŒs und ausklappbaren SchachtelmenĂŒs. Der Screenshot unten zeigt die Navigationsleiste von amazon.de (Desktopversion). Die UntermenĂŒs klappen sich automatisch auf, wenn man mit der Maus ĂŒber einen MenĂŒpunkt fĂ€hrt. Ein Klick ist dabei nicht notwendig. So kann beispielsweise die Kategorieseite “Navigation” mit nur einem Klick erreicht werden. Mobil ist diese Technik nicht umsetzbar.

Navigationsleiste von Amazon

© Amazon

Auf der mobilen Seite sind dafĂŒr drei “Klicks” notwendig. Jedoch verwendet Amazon zum Teil Drop-Down-MenĂŒs, sodass nicht bei jedem Klick eine neue Seite geladen wird. Dies erspart Zeit und möglicherweise mobiles Datenvolumen. Dadurch steigt die User Experience einer Website.

13.4 Sichtbarer Content zÀhlt

Google ist kein Fan von Adblockern und verschweigt daher: Adblocker greifen mobil hĂ€ufig nicht. Wer Werbeprogramme eingebunden hat, die unter UmstĂ€nden Popups öffnen, sollte dies bedenken. Kann der Besucher die Werbung nicht wegklicken, kann er auch die Seiteninhalte nicht einsehen. Google straft dies sogar mit schlechteren Rankings ab. HartnĂ€ckige Ads können ĂŒber den jeweiligen Distributor ausgeschlossen werden. Die Aufbaugeschwindigkeit lĂ€sst sich durch AMP-Tools deutlich verbessern. Im Zweifel sollten Sie die eigene Website regelmĂ€ĂŸig testen, um Darstellungsfehler und Aufbaugeschwindigkeit selbst zu bewerten.

13.5 Voice Search

Mittlerweile werden viele Suchanfragen ĂŒber die Spracheingabe getĂ€tigt. Dies geschieht vor allem per MobilgerĂ€t aber auch zunehmend durch Sprachassistenten. Schon im Mai 2016 gab Google an, dass 20 % aller Suchanfragen per Voice Search abgegeben werden. FĂŒr die Suchmaschinenoptimierung ergeben sich dadurch Änderungen, weil diese Art der Anfragen anders formuliert sind als getippte und nĂ€hern sich der normalen Sprache an. Sie sind lĂ€nger und dadurch oft prĂ€ziser. Der (mobile) Content sollte sich dann nicht mehr nur auf einzelne Keywords konzentrieren, sondern die Fragen der Suchenden möglichst gut beantworten.

Beispiel einer mĂŒndlichen Suchanfrage: “In welchem ModegeschĂ€ft im MĂŒnchen gibt es momentan große Rabatte?”

14. Offpage SEO

Im Offpage-Bereich geht es darum, externe Signale bez. Vertrauen und AutoritĂ€t aufzubauen. Das geschieht ĂŒber Backlinks, Bewertungen, ErwĂ€hnungen und Social Signals. „Offpage“ heißt dabei so viel wie „außerhalb der Seite“ und impliziert, dass hier Faktoren gemeint sind, die sich auf fremden Websites abspielen. Diese Faktoren sind daher auch schwieriger zu beeinflussen als der Onpage-Bereich. Aus diesem Grund haben Offpage-Signale auch eine weitaus grĂ¶ĂŸere Auswirkung auf die Rankings.

14.1 Linkbuilding

Im Offpage-Bereich geht es darum Backlinks aufzubauen. Backlinks sind Verlinkungen von externen Websites auf die Eigene. Diese externen Verlinkungen sieht eine Suchmaschine als Empfehlung an. Aus diesem Grund sind die immer noch der wichtige Ranking-Faktor. Ziel sollte es sein, viele hochwertige Backlinks zur eignen Website aufzubauen.

Eine sinnvolle Linkbuilding-Strategie enthÀlt 3 Bereiche:

  • Link-Audit: Im ersten Schritt wird das aktuelle Backlink-Profil analysiert. Das Audit soll einen Überblick darĂŒber geben, wie viele Backlinks die eigene Website hat und auch in welcher QualitĂ€t. Auf dieser Basis lassen sich dann Maßnahmen ableiten, welche zusĂ€tzlichen Link-Arten aufgebaut werden sollten.
  • Monitoring: Nach dem initialen Link-Audit geht es darum das eigene Backlink-Profil laufend zu ĂŒberwachen. Zum einen möchte man sicherstellen, dass aktuelle starke Backlinks bestehen bleiben. Zum anderen stellt man mit einem laufenden Monitoring sicher, dass man Backlinks, die organisch dazukommen, mitĂŒberwachen kann. So entstehen detaillierte Insights, welche Inhalte gerne geteilt und verlinkt werden. Diese Erkenntnisse können wiederum eingesetzt werden, um zukĂŒnftig mehr Inhalte zu erstellen, die tendenziell öfter verlinkt werden.
  • Linkaufbau: Hier kommt das eigentliche Linkbuilding. Backlinks kommen nicht immer organisch zustande. Man muss hier auch selbst aktiv werden. Ob Guest Blogging, Content-Seeding, Kooperationen, Aufbau von Wettbewerberlinks oder Forenlinks. Es gibt unzĂ€hlige Möglichkeiten, wie man Backlinks kommt.

Wenn man fĂŒr sich Möglichkeiten entdeckt und definiert hat, dann sollten man verschiedene Aspekte im Linkbuilding beachten. Dazu gehören

  • Themenrelevanz: In erster Linie sollten die Backlinks von themengleichen Websites kommen. FĂŒr Google wĂŒrde es zu manipulativ ausschauen, wenn eine Website fast ausschließlich Backlinks von themenfremden Seiten erhĂ€lt.
  • QualitĂ€t: Dabei geht es um die BerĂŒcksichtigung der linkgebenden Website hinsichtlich QualitĂ€t. Die Website sollte hochwertig sein. Im besten Fall ist die Website selbst eine AutoritĂ€t, die viele hochwertige Backlinks besitzt. Dadurch wird einiges von der eigenen Link-Power weitervererbt.
  • SEO-Kennzahlen: Auch wichtige SEO-Metriken sollten berĂŒcksichtigt werden, wenn Backlinks aufgebaut werden. Hat die linkgebende Website selbst eine hohe SEO-Sichtbarkeit und gute Keyword-Rankings, dann bringt das der Ziel-Seite deutlich mehr als Backlinks von SEO-schwachen Websites.
  • Link-Ziele: Das Link-Ziel ist ebenfalls entscheidend. In den meisten FĂ€llen bekommt die Startseite die meisten Backlinks ab. Von dort aus verteilt sich dann die Link-Power durch die interne Verlinkung auf andere Seite. Es macht aber auch Sinn, gezielt Unterseiten zu verlinken. So stellt man sicher, dass wichtige Unterseiten gezielt und grĂ¶ĂŸtenteils von einem Backlink profitieren.
  • Ankertexte: Bei den Ankertexten handelt es sich um Keywords, Begriffe und Begriffskombinationen mit denen eine Website verlinkt wird. Tendenziell wird eine Website sehr oft mit ihren Namen oder Domain direkt verlinkt. Aber auch einzelne Keywords und Begriffe sind natĂŒrlich in einem Backlink-Profil. Die Suchmaschine ließt den Ankertext aus und kann direkt verstehen, worum es sich auf der Zielseite handeln können. Man sollte aber nicht massenhaft Keyword-Ankertexte verwenden, da die unnatĂŒrlich wirkt.
  • Herkunft der Links: Eine Website aus Deutschland sollte auch die meisten Backlinks von Website erhalten, die selbst aus Deutschland sind. Hat eine deutsche Website die meisten Links von weit entfernten LĂ€ndern, wirkt das verdĂ€chtig nach Linkkauf und somit Manipulation.

Neben den Tipps gibt es noch weitere Dinge, die Sie beachten sollten. Links von externen Websites können zum Ranking beitragen. Sorgen Sie daher fĂŒr einen stetigen und organischen Link-Aufbau. Organische Links erhalten Sie durch gute Inhalte. Verzichten Sie auf automatischen Link-Aufbau. Diese Methode wird von Suchmaschinen als Betrug erkannt und kann zu starken Ranking-Einbußen fĂŒhren. Achten Sie auch auf die LinkqualitĂ€t. Besser sind wenig starke Links, als viele schwache VerknĂŒpfungen. Starke Links sind solche, die von thematisch relevanten Inhalten und gut bewerteten Websites stammen. Als besonders wirksam gelten Links von AutoritĂ€tsseiten im jeweiligen Themenbereich.

Wenn Sie unsere SEO (Suchmaschinenoptimierung) Tipps berĂŒcksichtigen, taucht Ihre Website nicht nur im Suchmaschinen-Index auf. Sie beginnen mit wirkungsvoller Bing Suchmaschinenoptimierung (Google Suchmaschinenoptimierung) fĂŒr bessere Rankings und Besucherzahlen.

Eine vollstĂ€ndige Liste aller Backlink-Eigenschaften, die man berĂŒcksichtigen sollte, finden Sie in unserem Glossar zum Thema Backlinks.

Vorgehensweise zum Linkbuilding zusammengefasst:

Ablauf_linkbuilding

© OSG

Zum Linkbuilding Artikel

Testen Sie jetzt Ihre Links!

OffPage-Maßnahmenkatalog 
ThemaBeschreibung
Linktext der eingehenden LinksDer verlinkte Text ist einer der wichtigsten externen Ranking-Faktoren. Dies gilt fĂŒr Links von externen Seiten sogar noch mehr als fĂŒr Links innerhalb einer Website. Wichtig ist hierbei aber, dass die Verteilung der Linktexte von aussen "natĂŒrlich" aussehen muss, d.h. eine auffĂ€llige HĂ€ufung ein- und desselben Linktexts sollte tunlichst vermieden werden. Ausnahmen sind hier natĂŒrlich der Unternehmensname sowie die URL der Website selbst. NatĂŒrlich ist, dass ein Großteil der Links genau diese Linktexte besitzt und Linktexte mit den wichtigsten Keywords nur einen geringen Anteil haben.
Links von .edu und .gov Domains bzw. entsprechenden internationalen PendantsDiese Links sind sehr wertvoll, da Websites aus dem staatlichen und universitÀren Umfeld generell von Suchmaschinen als sehr relevant eingestuft werden.
Links auf ungĂŒltige URLsAuch wenn Suchmaschinen betonen, dass Links auf nicht existierende Seiten oder ungĂŒltige URLs dem Ranking nicht schaden, wurden in der Praxis dennoch schon Effekte beobachtet, bei denen massive Verlinkung ungĂŒltiger URLs dem Ranking der Website schadeten. Es ist daher ratsam, regelmĂ€ssig die entsprechenden Informationen in den Google Webmaster Tools bzw. der Bing Webmaster Console einzusehen und ggf. entgegenzuwirken, indem man beispielsweise 301-Redirects setzt oder verlinkende Webmaster um Korrektur der Links bittet.
Text um den LinkDer Text direkt vor und nach dem Link trĂ€gt spĂŒrbar zum Ranking bei. NatĂŒrlich gesetzte Links betten sich in ein semantisches Umfeld von Begriffen ein, wohingegen beispielsweise Footer-Links oder als Werbung gekennzeichnete Blöcke meist völlig alleine stehen und eher auf einen kĂŒnstlich (d.h. nur zur Verbesserung des Rankings) gesetzten Link hindeuten.
Themenrelevante LinksLinks von Ă€hnlichen Seiten sind sehr, sehr hilfreich. Sie zeigen eine Empfehlung der Mitbewerber und dass die verlinkte Seite innerhalb der Branche sehr populĂ€r ist. Die praktische Umsetzung ist oft schwer, da kein Mitbewerber gerne auf den direkten Konkurrenten verlinkt. Hier bieten sich Strategien an, beispielsweise allgemein gehaltene Branchen-Portale aufzubauen oder Existierende zu unterstĂŒtzen, um somit indirekt Links von Mitbewerbern zu erhalten.
Lokale AnkerLokale Anker (Linkziele innerhalb einer Seite, beispielsweise www.domain.de/kontakt#telefon) sind fĂŒr die interne Navigation nĂŒtzlich. DarĂŒber hinaus sind sie auch fĂŒr SEO-Zwecke hilfreich, da sie besondere Abschnitte nochmal betonen können
Herkunft der eingehenden LinksNeben dem Linktext ist sehr wichtig, ob die verlinkende Seite selbst eine hohe Relevanz bei Google besitzt. Obwohl der Page Rank an sich nur noch eine sehr geringe Bedeutung fĂŒr das Ranking besitzt, ist er oftmals leider das einzige Kriterium fĂŒr die Bewertung, das ohne aufwĂ€ndige Recherche und Beurteilung vieler anderer Faktoren (Domain-Alter, Linkprofil der verlinkenden Seite, IP-Nachbarschaft der verlinkenden Seite, vorhandene Rankings der Seite etc.) ermittelt werden kann.
IP Adresse des eingehenden LinksGoogle sagt, dass es keine Diskriminierung von Links gibt, die von der selben IP Adresse oder aus dem gleichen Class-C-Bereich kommen, also kann fĂŒr Google angenommen werden, dass die IP-Adresse keinen Einfluss auf die Wertigkeit eines Links hat. Bing und Yahoo! berĂŒcksichtigen jedoch möglicherweise die IP-Adressen bzw. IP-Klassen, weshalb es generell besser ist, Links von verschiedenen IPs und IP-Klassen zu haben.
Eingehende Links von Linkfarmen und anderen "verdĂ€chtigen" SeitenEingehende Links von sogenannter "Bad Neighborhood" haben keinen schĂ€dlichen Effekt auf eine Website, da diese nicht unter Kontrolle des Website-Betreibers liegen und es ausserdem eine viel zu einfache Möglichkeit wĂ€re, um einem Mitbewerber zu schaden. Aus EffizienzgrĂŒnden sollte man beim Linkaufbau aber kurz prĂŒfen, ob sich hinter einem Link derartige Konstrukte handelt und die Zeit besser in wirklich gute Links investieren.
Cross-LinkingCross-Linking tritt auf, wenn Seite A auf Seite B verlinkt, Seite B auf Seite C verlinkt und Seite C wieder zurĂŒck auf Seite A verlinkt. Neben diesem einfachsten Fall gibt es eine Menge komplexerer Konstrukte, die aber alle nur eine erweiterte Version einfacher reziproker Links sind. Reziproke Verlinkung schadet ĂŒblicherweise nicht, bringt aber dem Ranking normalerweise auch nichts.
Exzessive Verlinkung, Link SpammingEs ist schlecht fĂŒr das Ranking, wenn eine Website extrem viele Links von bzw. zu einer anderen Website besitzt, da dies auf Linkkauf oder zumindest Spamming hindeutet. NatĂŒrliche Ausnahmen dieser Regel sind Querverlinkungen zwischen eigenen Projekten (beispielsweise unterschiedlichen Sprachversionen einer Website, die auf unterschiedlichen Domains liegen oder Websites anderer Unternehmen, die zum gleichen Mutterkonzern gehören etc.).
Viele ausgehende LinksGoogle mag keine Seiten, die hauptsĂ€chlich nur aus Links bestehen und daneben nur wenig Inhalt bieten, weshalb man die Anzahl ausgehender Links unter 100 pro Seite halten sollte. Ausnahmen dieser Regel sind natĂŒrlich große Übersichtsseiten, Sitemaps und dergleichen, aber auch bei diesen kann man mit Hilfe geeigneter Aufteilung auf Unterseiten die Anzahl ausgehender Links in vernĂŒnftigem Rahmen halten.
Pixel-LinksWenn ein Link mit Hilfe eines Bildes umgesetzt ist, das nur 1x1 Pixel groß und somit nicht fĂŒr menschliche Besucher sichtbar ist, kann dieser auch nicht angeklickt werden und ist somit ein deutlicher Hinweis auf einen Versuch, die Suchmaschinen-Rankings zu manipulieren.
Ausgehende Links zu Linkfarmen und anderen "verdĂ€chtigen" SeitenAnders als eingehende Links von Linkfarmen und sogenannter "Bad Neighborhood" können ausgehende Links auf solche Seiten durchaus das eigene Ranking schĂ€digen. Es ist daher ratsam, regelmĂ€ssig den Status der verlinkten Seiten zu prĂŒfen, da sich ehemals harmlose Seiten durch EigentĂŒmerwechsel durchaus in Bad Neighborhood verwandeln können.
Deep Link RatioEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
Top Referring DomainsEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
Top-Level-DomainEine deutsche Website sollte auch viele ".de" Domain Verlinkungen haben. Andere Top-Level-Domains sollten natĂŒrlich auch nicht fehlen, die Anzahl sollte aber deutlich unter der .de Domain sein.
LĂ€nderverteilungEine deutsche Website sollte auch viele Verlinkungen von deutschen Websiten haben. Ein geringerer Anteil der verlinkenden Domains aus dem Ausland sollte natĂŒrlich auch nicht fehlen.
LinkzieleDurch eine Analyse der Linkziele, lÀsst sich schnell feststellen
Seiten Typen (Foren, Blogs, CMS, Webkataloge)Zu einem natĂŒrlichen Linkmix gehören verschiedene Arten von Webseiten: Foren, Webkataloge, Statische Seiten sowie Bloglinks.
Anzahl LinksEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
DomainpopularitĂ€tEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
IP-PopularitĂ€tEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
Linktexte (Coumpound, Money, Brand, Sonstige)Eine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
Social Media

Eine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
NoFollow/Follow-LinksNoFollow Links haben zwar einen schlechten Ruf und werden daher bei einem Linkaufbau oft vermieden. Um einen organischen Linkaufbau darzustellen sollte ein prozentualer Anteil der Backlinks ein NoFollow Attribut besitzen.
Hub- und Authority EmpfehlungenEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
Starke PR Seiten EmpfehlungenEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
PagerankDer Pagerank verliert zwar immer mehr an Wert, trotzdem wird der PR immer noch als Rankingfaktor berĂŒcksichtigt. Ein hoher PR zeugt immer noch von Trust und Authority einer Website.
Linkaufbau der KonkurrenzEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.
AC RankEine gezielte Verteilung der Backlinks auf die Startseite und Unterseiten einer Website ist ebenfalls wichtig fĂŒr die OffPage Optimierung.

15. UX

Weiter oben haben wir kennengelernt (unter “Vorteile von SEO”), dass auch die UX – also Nutzer-Erfahrung – einen wichtigen Teil im SEO (Suchmaschinenoptimierung) einnimmt.

UX ist die AbkĂŒrzung fĂŒr “User Experience” und fasst alle Maßnahmen zusammen, die zur einer positiven Nutzer-Erfahrung fĂŒhren. Laut der Definition von Wikipedia ist UX:

Der Begriff User Experience (AbkĂŒrzung UX, deutsch wörtlich Nutzererfahrung, besser Nutzererlebnis oder Nutzungserlebnis – es wird auch hĂ€ufig vom Anwendererlebnis gesprochen) umschreibt alle Aspekte der EindrĂŒcke eines Nutzers bei der Interaktion mit einem Produkt, Dienst, einer Umgebung oder Einrichtung.

– Wikipedia: https://de.wikipedia.org/wiki/User_Experience

FĂŒr Websites bedeutet dies, dass es oberstes Ziel sein muss, den Nutzer ein positives Erlebnis beim Surfen zu liefern. Nur dadurch behĂ€lt man den Nutzer auf der Website, damit man im nĂ€chsten Schritt zum Kauf oder Kontakt animiert.

Auf der Website gibt es viele Bereiche und Aspekte, die zu einer guten UX fĂŒhren. Unter anderem zĂ€hlen dazu:

BereichBeschreibung
LadezeitenRuft der Nutzer die Website auf, dann soll diese so schnell wie möglich laden. Nutzer sind im Web ungeduldig.
NavigationHier ist es wichtig, dass die Haupt-Navigation sofort erkennbar ist. Interne Links aus dem Text heraus mĂŒssen ebenfalls mit anderer Farbe und am besten auch unterstrichen als solche erkennbar sein. Zudem sollten die Link-Benennungen kurz, klar und verstĂ€ndlich gewĂ€hlt werden.
ContentDer Inhalt sollte klar strukturiert sein. Haupt- und ZwischenĂŒberschriften helfen, dass der Nutzer den Text besser erfassen kann. Liste, Tabellen, Bilder, Videos, etc. lockern den Text etwas auf. Insgesamt sollte der Content einen einzigartigen Mehrwert bieten.

Das ist keine vollstĂ€ndige Liste aller UX-relevanten Themen. Auf UX-relevante Themen, die bei der Erstellung einer Landingpage zu beachten sind, gehen wir in diesem Paper ein. FĂŒr weitere Informationen zu UX besuchen Sie unseren Blog. Dort informieren wir laufend ĂŒber die Themen SEO (Suchmaschinenoptimierung), UX und allgemein Online Marketing.

BerĂŒcksichtigt man alle UX-Aspekte so hat man einen zufriedenen Nutzer:

  • Nutzer springen nicht sofort ab, sondern bleiben auf der Website.
  • Nutzer verweilen lĂ€nger auf der Website.
  • Neue Nutzer werden zu wiederkehrenden Nutzern.
  • Nutzer sind eher bereit was zu kaufen.
  • Die positiven Nutzer-Signale werten Suchmaschinen aus und belohnen das mit guten Rankings.

Beim letzteren wird sofort klar, wieso SEO (Suchmaschinenoptimierung) und UX Hand in Hand gehen. Aus diesem Grund ist es wichtig beide Disziplinen zu vereinen.

15.1 SEO + UX = SXO

Deshalb spricht man mittlerweile manchmal von SXO. “Search Experience Optimization” fasst alle Maßnahmen aus SEO und UX zu einem Begriff zusammen.

Die Wichtigkeit beider Disziplinen haben wir bisher kennengelernt und können festhalten:

  • Schritt 1 SEO: Mit SEO beeinflussen wir Sichtbarkeit und Rankings bei Suchmaschinen und sorgen dadurch fĂŒr Traffic auf der Website.
  • Schritt 2 UX: Landet der Nutzer ĂŒber SEO auf die Website, geht es darum ĂŒber UX ihn auf der Website zu halten und zu einem Kauf zu bewegen.

15.1 Der Nutzer im Zentrum – die User Journey

SXO hat dabei den Nutzer im Fokus. Gehen wir von einem typischen Nutzer aus, dann kann man den Prozess bis zum Kauf auf der Website wie folgt grob definieren:

  1. Nutzer sucht bei Google nach Informationen (SEO)

  2. Nutzer findet passende Informationen bei Google und klickt auf die Website (SEO)

  3. Nutzer surft auf der Website (UX)

  4. Nutzer ist zufrieden und kauft was (UX)

Man spricht dabei auch von einer Reise des Nutzers bis zum Kauf. Dabei ist der englische Begriff “User Journey” im Deutschen weit verbreitet.

An den 4 beschriebenen Meilensteinen in der User Journey lassen sich auch konkrete Maßnahmen ableiten und Optimierungen vornehmen, um alle SXO-Vorteile abzugreifen.

15.2 Usability Konzept

Um ein Usability Konzept zu erstellen mĂŒssen Sie, die verschiedenen Stellen, die ein Kunde durchlĂ€uft ĂŒberprĂŒfen und optimieren. Am besten bestimmen Sie fĂŒr eine solche Aufgabe einen neuen Mitarbeiter in Ihrem Betrieb, der noch nicht so tief im AlltagsgeschĂ€ft verankert ist, damit er mit einem frischen Blick die Seiten begutachten kann.

Dabei sollten folgende Punkte begutachtet werden:

  • Bestellprozess
  • Produktdetailseiten
  • Navigation
  • Texte
  • Kundeninformationen
  • Verlinkungen
  • Layout
  • Homepage
  • Warenkorb
  • Services
  • Zahlungsmöglichkeiten
  • Unternehmensinformationen
  • Grafik & Design
  • Suchfunktion
  • Etc.

Um solche Aufgaben zu bewÀltigen sollten unter anderem Webcontrolling Auswertungen, Mouse Tracking, Multivariate Tests, A/B Tests und Detailauswertungen (Mobile, Browser, Auflösung, Uhrzeit, Kanal) vorgenommen werden.

16. Algorithmus-Updates

Der Algorithmus von Google ist ein komplexes System, der verwendet wird, um Daten aus seinem Suchindex abzurufen und sofort die bestmöglichen Ergebnisse fĂŒr eine Suchanfrage zu liefern. Die Suchmaschine verwendet eine Kombination aus Algorithmen und zahlreichen Ranking-Signalen, um Webseiten zu liefern, die nach Relevanz auf den Ergebnisseiten der Suchmaschine geordnet sind.

Der Google Algorithmus ist die Formel, die Google verwendet, um die aus der Anfrage eines Nutzers resultierenden Webseiten in eine Rangfolge zu bringen. Neben dem PageRank-System, das Googles wichtigster Beitrag zur Bewertung der Wichtigkeit einer Website aufgrund ihrer PopularitĂ€t war, verwendet Google zahlreiche andere Kriterien, die sich regelmĂ€ĂŸig Ă€ndern, um relevantere Ergebnisse zu liefern und um zu verhindern, dass Personen das System ausnutzen. Wenn ein Kriterium beispielsweise die Menge identischer Wörter auf der Seite wĂ€re, könnten Spezialisten fĂŒr SEO (Suchmaschinenoptimierung) mehrere Vorkommnisse des Wortes in die Seite einbetten, die fĂŒr den Nutzer unsichtbar sind, aber nicht fĂŒr den Suchmaschinen-Spider, der das Web durchkĂ€mmt. Wenn Google feststellt, dass die Nutzer exzessive Keyword-FĂŒllungen vornehmen, kann dies den Wert dieses Kriteriums im Gesamtmix mindern.

In seinen Anfangsjahren hat Google nur eine Handvoll Aktualisierungen seiner Algorithmen vorgenommen. Heute nimmt Google jedes Jahr Tausende von Änderungen vor. Die meisten dieser Aktualisierungen sind so geringfĂŒgig, dass sie völlig unbemerkt bleiben. Gelegentlich fĂŒhrt die Suchmaschine jedoch grĂ¶ĂŸere algorithmische Aktualisierungen durch, die sich erheblich auf die SERPs auswirken.

16.1 StĂ€ndige Änderungen

Im Laufe der Jahre hat Google zahlreiche AlgorithmusĂ€nderungen vorgenommen, von denen viele Namen und mehrere Versionen haben, darunter Boston, Caffeine, Cassandra, Dominic, Fritz, Florida, Austin, Allegra, Bourbon, Gilligan, Big Daddy, Buffy, Dewey, Panda und Pinguin. Im Jahr 2013 wurde der Hummingbird-Algorithmus grundlegend geĂ€ndert, um gezieltere Ergebnisse fĂŒr die Benutzer zu liefern.

Mit jeder Änderung des Algorithmus gewinnt ein gewisser Prozentsatz der Websites an PopularitĂ€t, wĂ€hrend andere an PopularitĂ€t verlieren. Gelegentlich erleiden selbst große Websites einen großen Verlust.

Ein Beispiel: Das Google Panda Update

Das Panda Update hatte den Fokus “Content”. Dieses beeinflusste 6-9% aller Suchanfragen in Deutschland. Mittlerweile gibt es die Version 3.9. FĂŒr die Suchmaschinenoptimierung sind die Konsequenzen, dass zu stark SEO optimierte Texte und den Fokus nicht auf Mehrwert und QualitĂ€t gesetzt hatten, abgestraft werden.

Negative Effekte:

Wikio.de

Online-Marketing-Panda-Update-Google-Wikio-de-Suchmaschinenoptimierung-SEO

© sistrix.com

 

 

 

 

 

 

 

Geizkragen.de

Online-Marketing-Panda-Update-Google-Geizkragen-de-Suchmaschinenoptimierung-SEO

© sistrix.com

 

 

 

 

 

 

 

Ciao.de

Online-Marketing-Panda-Update-Google-ciao-de-Suchmaschinenoptimierung-SEO

© sistrix.com

 

 

 

 

 

Positive Effekte:

Gutefrage.net

Online-Marketing-Panda-Update-Google-gutefrage-net-Suchmaschinenoptimierung-SEO

© sistrix.com

 

 

 

 

Siemens-home.de

Online-Marketing-Panda-Update-Google-siemens-home-de-Suchmaschinenoptimierung-SEO

© sistrix.com

 

 

 

 

 

 

 

16.2 Wichtigste Google Algorithmus-Updates

Im Folgenden haben wir die wichtigsten Google Algorithmus-Updates aufgelistet:

  • 2012: Penguin-Update
  • 2013: Humingbird-Update
  • 2014: Pigeon-Update
  • 2015: Google Mobile-Update

Das Pinguin-Update und seine Auswirkungen

Besonders unnatĂŒrlicher Linkaufbau, zu viele Keyword-Verlinkungen und generische Keywords werden mit diesen Update abgestraft. Das Linkprofil und hochwertiger Content wird immer wichtiger.

Tagesgold.org

Pinguin-Update-Tagesgold.org-Suchmaschinenoptimierung-SEO

© sistrix.com

Onlinekredite.cc

Pinguin-Update-Onlinekredite.cc-Suchmaschinenoptimierung-SEO

© sistrix.com

Check24

Pinguin-Update-Check24-Suchmaschinenoptimierung-SEO

© sistrix.com

Das Venice-Update

Bei diesem Update wurde der Fokus besonders auf die lokale Suche gelegt. Dies hatte nur Auswirkungen auf die organischen Suchergebnisse, wobei die Google local Treffer nicht betroffen sind. Besonders auffÀllig war hierbei aber, dass es kaum VerÀnderungen in den Top 5 Suchergebnissen und bei stark umkÀmpften Keywords gab.

Vergleich: Google Suche mit Standort in MĂŒnchen mit Berlin

Venice-Update-Suche-Malerei-MĂŒnchen-Suchmaschinenoptimierung-SEO

© Google

Venice-Update-Suche-Malerei-Berlin-Suchmaschinenoptimierung-SEO

© Google

17. Wie mache ich meinen Inhalt fĂŒr Google verstĂ€ndlich?

Im Abschnitt “Google (und Nutzern) Ihre Inhalte verstĂ€ndlich machen” befasst sich der SEO (Suchmaschinenoptimierung) Leitfaden des Suchmaschinenbetreibers ausfĂŒhrlich mit den spezifischen Tags Meta-Title und Meta-Description sowie den Snippets, die als kurze Inhaltsangaben in Suchergebnissen auftauchen.

17.1 Der Meta-Title sollte eine Webseite wie eine Postanschrift identifizieren

Meta-Tags gehören als Metadaten einer Webseite in den Kopf (“<head>”) der Datei. Google empfiehlt, fĂŒr jede Seite einen individuellen und aussagekrĂ€ftigen Titel zu erstellen. Dieser sollte natĂŒrlich klingen und den Seiteninhalt treffend zusammenfassen. Vorteilhafte, optionale Zusatzinformationen sind der Name der Seite oder ein Firmenname und –standort sowie Angebotsschwerpunkte.

Ein No-Go sind dagegen Überschriften ohne jeden Bezug zum Inhalt sowie generische Titel, wie sie von Editierprogrammen beim Öffnen einer neuen Seite erstellt werden. Auch wenn Googles SEO EinfĂŒhrung duplizierte Überschriften auf unterschiedlichen Webseiten nicht grundsĂ€tzlich ablehnt, fĂŒhrt er die Verwendung derselben Titelangabe auf vielen oder allen Seiten einer Site explizit als “zu vermeiden” auf.

In der KĂŒrze liegt die WĂŒrze

Abschließend geht Google im Abschnitt zum Meta-Title noch auf die LĂ€nge ein und warnt vor zu langen Überschriften sowie vor der Überfrachtung mit ĂŒberflĂŒssigen SchlĂŒsselwörtern. Google verwendet den Inhalt der Title-Tags zwar vorzugsweise bei der Auflistung in SERPs, kĂŒrzt oder ersetzt diese aber, wenn sie zu lang oder irrelevant erscheinen. Der Meta-Title sollte daher eine LĂ€nge von ca. 60 Zeichen nicht ĂŒberschreiten. Der Snippet-Generator von Sistrix hilft bei der Optimierung von Snippets und zeigt, wie Google-Nutzer einen Suchtreffer der betreffenden Seite sehen.

Tipp

In der Google Search Console können Sie die Click-Through-Rate verschiedener Meta-Title ĂŒberprĂŒfen und vergleichen und sie somit optimieren.

17.2 Meta-Description: die Chance fĂŒr eine kostenlose Werbeanzeige

Auf die kurze Seitenbeschreibung in der Meta-Description geht Googles SEO (Suchmaschinenoptimierung) Leitfaden zunĂ€chst mit dem Hinweis ein, dass ihre QualitĂ€t mit der Search Console des Suchmaschinenbetreibers ĂŒberprĂŒfbar ist. Sie identifiziert ĂŒbermĂ€ĂŸig lange oder kurze Meta-Descriptions ebenso wie zu hĂ€ufig kopierte EintrĂ€ge. Anschließend zeigt der SEO Guide den Vorteil einer Verwendung des optionalen Meta-Tags auf, das die Suchmaschine als Quelle fĂŒr Snippets heranzieht, und verweist auf weitergehende BeitrĂ€ge zur Optimierung von Meta-Description und Snippets.

Best Practices und No-Gos

Im Abschnitt zu den bewĂ€hrten Vorgehensweisen empfiehlt Google, den Inhalt des Tags so zu formulieren, dass er den Suchmaschinennutzer informiert und interessiert. Konkreter lĂ€sst sich das so formulieren, dass die Meta-Description einen Call-To-Action enthalten und den Nutzer kurz darĂŒber informieren sollte, was ihn auf der verlinkten Webseite erwartet. In den SERPs hat sie die Aufgabe einer Werbeanzeige, die den Suchenden zum Besuch der Webseite veranlassen soll.

Weiterhin geht der Leitfaden auf die LĂ€nge der Meta-Description ein, deren Grenzen nicht allgemeingĂŒltig bezifferbar sind, da diese von den individuellen Randbedingungen einer Suchanfrage abhĂ€ngen. Allgemeinhin gilt eine Anzahl von 300 Zeichen als die LĂ€nge, die maximal verwendet werden sollte.

Die Liste der No-Gos zur Meta-Description dupliziert zunĂ€chst die beim Meta-Title genannten EintrĂ€ge. ZusĂ€tzlich verbietet sie Inhalte des Meta-Tags, die ausschließlich aus SchlĂŒsselwörtern bestehen oder den gesamten Textinhalt der Webseite duplizieren. Abschließend erlĂ€utert der Leitfaden noch, warum auch die Meta-Description möglichst fĂŒr jede Webseite individuell erstellt werden sollte und warnt, wie beim Meta-Title, davor, dieselbe Description fĂŒr alle oder zahlreiche Seiten zu verwenden.

Tipp

Wenn Sie bereits Werbung ĂŒber Google Adwords betreiben, können sie prĂŒfen welche Anzeigen besonders oft geklickt werden und diese Inhalte fĂŒr die Meta Title und Descriptions adaptieren.

17.3 Weitere wichtige Tags fĂŒr SEO (Suchmaschinenoptimierung)

Die Überschrift-Tags h1, h2, h3 und dergleichen zĂ€hlen zwar nicht zu den Meta-Tags, sind aber ebenfalls fĂŒr die Suchmaschinenoptimierung von Bedeutung. Der Google SEO Leitfaden empfiehlt hier, mit diesen Tags eine hierarchische Struktur in Form einer Gliederung des Webseitentexts zu schaffen, die seine inhaltlichen Haupt- und Unterpunkte widerspiegelt. Er warnt hingegen davor, Überschrift-Tags fĂŒr Textauszeichnungen zu missbrauchen, die keine Beziehung zur Textstruktur haben. Beispielsweise sollten h-Tags nur bei Inhalten und nicht sinnlos im Footer verwendet werden.

Bei den Überschriften ist auch die Gewichtung der Hierarchie entscheidend. Der h1 kommt eine höhere Gewichtung zu, als der h3-Überschrift usw. Verwenden Sie nach Möglichkeit ein wichtiges Keyword in den relevanten Überschriften.

17.4 Einfache und reiche Snippets

Die in SERPs angezeigten, textmĂ€ĂŸigen Snippets sind in dieser SEO (Suchmaschinenoptimierung) Guideline bereits bei der Meta-Description erwĂ€hnt. Googles Leitfaden geht aber noch auf eine andere Art von Snippets ein, die mittels sogenannter Strukturierter Daten spezifiziert werden. Diese dienen ebenfalls der Angabe von Metadaten, die Suchmaschinen auswerten können, bieten aber weitergehende Möglichkeiten, insbesondere das Referenzieren attraktiver Multimedia-Inhalte.

Google verwendet solche Rich-Snippets um Suchergebnisse durch zusĂ€tzliche Angaben aufzuwerten. Sie qualifizieren eine Webseite aber auch fĂŒr Sonderfunktionen wie Sternebewertungen. Google bietet mehrere Tools mit denen Strukturierte Daten, respektive Rich Snippets ĂŒberprĂŒft, aber auch ohne Änderung am Webseiten-Quelltext ausprobiert werden können.

Mit dem kostenlosen Rich Snippet Testing Tool von Google können erstelle Rich-Snippets ĂŒberprĂŒft werden.

Beispiel einer Rich-Snippet in Form einer Sternebewertung

© Google

Tipp

Durch gut ausgezeichnete Rich Snippets fallen Sie in den Suchergebnissen besser auf – die Klickrate kann sich dadurch erhöhen.

18. Die Hierarchie einer Website

Ob ErstprĂ€sentation oder umfassende Neugestaltung einer vorhandenen Website: Die Planung des GrundgerĂŒstes ist eine essenzielle Vorabmaßnahme. Dieses Fundament soll sĂ€mtliche kĂŒnftigen Änderungen auf der Seite zu tragen imstande sein: die Struktur und Hierarchie der Website. Ein solides Konzept unter BerĂŒcksichtigung einer Handvoll Regeln erspart Ihnen einiges an nachtrĂ€glicher Flickerei und damit viel Ärger.

18.1 Die Startseite als Zentrum der Navigation

FĂŒr diese hierarchische Strukturgebung hat die EinfĂŒhrung in die Google Suchmaschinenoptimierung nĂŒtzliche und nachvollziehbare RatschlĂ€ge parat – Dos und Dont’s, welche Ihnen als Ersteller und Betreiber einer Website bei der Realisierung des Projektes behilflich sind. Aller Anfang ist die Startseite – von hier aus generieren Sie die Navigationsstruktur. Google empfiehlt in seinen einfĂŒhrenden SEO Tipps den Aufbau organisch sinnvoller Hierarchien: stets vom Allgemeinen, Grobstofflichen hin zum Konkreten, Speziellen. Zum einen soll eine inhaltlich schlĂŒssige Ordnung erkennbar sein, zum anderen ist auf eine möglichst unkomplizierte Ordnerstruktur zu achten. Zu tief verzweigte Unterverzeichnisse bergen die Gefahr, dass die Übersicht verloren geht. Von der Startseite aus sollte jeder Inhalt mit wenigen Klicks erreichbar sein.

18.2 Navigationspfade und Sitemap

Ebenso legt Google die Einrichtung von Navigationspfaden, den Breadcrumbs nahe – so weiß der Besucher stets, auf welchem hierarchischen Level er sich befindet. Navigationspfade stĂ€rken somit die Usability.

Beispiel FĂŒr eine Breadcrumb-Navigation

© Online Solutions Group GmbH

 

Die Breadcrums einer Seite lassen sich ebenfalls ĂŒber strukturierte Daten auszeichnet – das erleichtert es Suchmaschinencrawlern die Hierachie der Website richtig zu erfassen. DarĂŒber hinaus propagiert Google wie oben erwĂ€hnt die Einreichung einer XML-Sitemap – diese erleichtert der Suchmaschine die Orientierung und ist daher auch der Indexierung von Seiten in tiefer platzierten Ebenen förderlich. Die Einreichung einer XML-Sitemap ist erfahrungsgemĂ€ĂŸ jedoch nur sinnvoll bei großen Websites mit mehr als 5.000 URLs. Es lohnt sich dennoch, Googles einfĂŒhrende SEO (Suchmaschinenoptimierung) Tipps bei Planung und Aufbau im Hinterkopf zu behalten.

Zum Sitemap Artikel

18.3 Übersichtlichkeit fĂŒr den Nutzer sicherstellen

Eine umsichtige Konzeption ist der SchlĂŒssel fĂŒr den Erfolg Ihres Webauftrittes. Ihr Themenschwerpunkt markiert ĂŒblicherweise den Ausgangspunkt der hierarchischen Aufstellung, bei kommerziellen Websites ist es zumeist der Unternehmensgegenstand. Von der Startseite ausgehend gilt es, Haupt- und Unterkategorien festzulegen, die in absteigender Hierarchie jeweils abnehmende Relevanz aufweisen. Bevorzugen Sie flache Hierarchien: Je knapper Sie die Anzahl an Unterebenen (Verzeichnistiefe) bemessen, desto einfacher machen Sie es sowohl Ihren Besuchern als auch den Suchmaschinen.

Vor allem bei großen Websites mit vielen URLs leidet die User Experience sehr schnell. Daher sollte auch auf eine niedrige Klickpfadtiefe geachtet werden. Die Klickpfadtiefe gibt die Anzahl der benötigten Klicks an, um auf eine bestimmte Unterseite zu gelangen.

Benennen Sie Verzeichnisebenen und Kategorien anhand thematisch plausibler Keywords. Achten Sie darauf, dass ein und dasselbe Keyword nicht gehĂ€uft, beispielsweise in einer URL mehrmals (www.example.de/keyword/keyword_123/keyword_abc), vorkommt. WĂ€hlen Sie beim Betiteln Ihrer Verzeichnisse kurze Worte und Begriffe mit Themenbezug: Suchmaschinentreffer zeigen die ersten Worte einer URL an – so erhĂ€lt der Besucher schon vor dem Anklicken Informationen zum Seiteninhalt.

Tipp: Verwenden Sie das Rich Snippet Breadcrumbs. Es wird im Suchtreffer anstelle der URL angezeigt und dient der besseren Übersicht.

Beispiel zum Rich Snippet Breadcrumbs

© Google

18.4 Gefahren einer ungepflegten Hierarchiestruktur

Dont’s, die dem erfolgreichen Start Ihres Internetauftritts abtrĂ€glich sind: sinnfrei verschachtelte Verzeichnisstrukturen, nachlĂ€ssige Navigation mit schlampiger interner Verlinkung: Das Entstehen wilder URLs kann zu Duplicate Content und in weiterer Folge zur Abwertung seitens der Suchmaschinen fĂŒhren. Google und Co. halten sich an klare QualitĂ€tsvorgaben – beugen Sie dem unkontrollierbaren Wuchern unbeabsichtigter URLs vor, indem Sie von Anfang an die gebotene Sorgfalt an den Tag legen. Sorgfalt bei einer hierarchisch nachvollziehbaren Struktur, Sorgfalt bei Ihren sprechenden und themenzugehörigen Dateinamen. Übereinstimmender Standpunkt vieler Experten: Der Zeitaufwand, den Sie in diese organisatorische Vorarbeit investieren, wird sich bezahlt machen.

UX-Grafik

© TNS Emnid

Mit dem Entwurf der Seitenstruktur und einer hierarchischen Gliederung schaffen Sie die solide Grundlage fĂŒr alle weiteren AktivitĂ€ten. Suchmaschinen folgen dem Nutzerverhalten – beherzigen Sie diesen Punkt. Lassen Sie Suchmaschinen-Algorithmen zwar nicht außer Acht, aber denken Sie in erster Linie an die Personen, die durch Ihre Seiten navigieren. Trends und Suchverhalten Ă€ndern sich und Algorithmen folgen diesen Trends. Mit einem starken Fundament können Sie den eigenen Auftritt neuen Ă€ußeren UmstĂ€nden flexibel anpassen.

19. Keywordstrategie

Dieser Teil unseres SEO Guide skizziert, welche Ziele mit der Auswahl bestimmter Keywords erreicht werden sollen, wie die optimalen Keywords auf Grundlage einer individuellen Keywordstrategie gefunden werden und welche Tools fĂŒr die Keyword -Recherche Webmastern und SEOs zur VerfĂŒgung stehen. Im Google Leitfaden wird auf dieses Thema kaum eingegangen.

19.1 Welche Bedeutung hat der Begriff Keyword?

Es ist wichtig zu wissen, dass der Begriff “Keyword” zwei unterschiedliche Dinge beschreibt. Zum einen werden bedeutungsvolle Worte oder Phrasen, die den Inhalt eines Textes beschreiben, als Keywords bezeichnet. Zum anderen ist ein Keyword jedes Wort, das von einem Benutzer in eine Suchmaschine eingegeben wird, um eine Online-Suche zu starten.

Es gibt verschiedene Arten von Keywords: Moneykeywords, Compound, Brand, generische Keywords und Kombinationen aus diesen.

Am besten stuft man Keywords auf einer Webseite nach den Kriterien Suchvolumen, Themenrelevanz, SaisonalitÀt und andere Faktoren ein.

Zum SEO Keywords Artikel

19.2 Die Ziele der Keywordwahl

Durch das Targeting bestimmter Keywords ĂŒber verschiedene Suchmaschinen-Marketing-Techniken können Webseitenbesitzer ihre Chancen verbessern, in den Ergebnislisten der Suchmaschinen weit oben platziert zu werden. GrundsĂ€tzlich sind Keywords unverzichtbar, damit eine Webseite von Google & Co zu einem bestimmten Thema indexiert und bei einer Suchanfrage zu diesem Thema angezeigt werden kann. Die Wahl relevanter Keywords ist eine Voraussetzung fĂŒr möglichst hohen Traffic und in der Folge fĂŒr den wirtschaftlichen Erfolg einer Webseite und des dahinterstehenden Unternehmens.

19.3 Wie finden Webseitenbetreiber die optimalen Keywords?

Am Anfang der Keyword-Recherche steht die Festlegung, welches Ziel mit einer Webseite erreicht werden soll. Dabei spielt es keine Rolle, ob Produkte oder Dienstleistungen verkauft werden, oder ob sich Besucher fĂŒr einen Newsletter eintragen oder Informationen anfordern sollen. All dies können Ziele einer Webseite sein. Wichtig ist immer, dass die Keywords den Inhalt einer Seite möglichst prĂ€zise beschreiben.

Der zweite wichtige Schritt ist mit geeigneten Tools die Suchintention und die Nutzerintention herauszufinden. Das heißt, zu verstehen wie und warum Suchmaschinennutzer suchen. Die Unterschiede sind fĂŒr Google wichtig. Die Suchmaschine liefert zum gleichen Thema unterschiedliche Ergebnisse, abhĂ€ngig zum Beispiel davon, ob jemand etwas kaufen will oder nur Informationen sucht. Es werden je nach Intention der Nutzer fĂŒnf Arten von Keywords unterschieden. Diese sind:

  • Informational: Der User sucht nach Informationen, Z.B. “gute Radtouren auf Mallorca”
  • Transactional: Der User hat eine Kaufabsicht, z.B. “rote ballerinas in gr. 38”, “ballerinas kaufen”
  • Navigational: Der User benutzt die Suchmaschine als Navigation und sucht z.B. direkt nach “Zalando.de”
  • Brand-Keywords: Kombinationen mit der Marke, z.B. “s.Oliver T-Shirts”

Tipp

Geben sie ihre Keywords in der Suchmaske bei Google ein. Anhand der angezeigten Suchergebnisse sehen sie sofort, ob z.B. Onlineshops gelistet werden oder informatitve Inhalte von Magazinen oder Blogs.

In kaum einem SEO Guide wird erwĂ€hnt, dass Webmaster je nach Ausrichtung der Webseite, regionale Unterschiede bei den Keywords berĂŒcksichtigen mĂŒssen. Ein Beispiel: in Berlin werden Buletten gegessen. Im Westen des Landes heißen sie Frikadellen und in Baden-WĂŒrttemberg FleischkĂŒchle. In Bayern werden aus den FleischbĂ€llchen schließlich Fleischpflanzerl.

Auch die LĂ€nde der Keywords sĂŒielt dabei eine große Rolle. Eine Studie des amerikanischen SEO-Tool-Anbieters Ahrefs hat gezeigt, dass der grĂ¶ĂŸte Teil der Google-Suchanfragen aus mindestens drei Wörtern und fast die HĂ€lfte aus fĂŒnf oder mehr Wörtern besteht. Diese Ergebnisse basieren auf einer Analyse von insgesamt 1,4 Milliarden Keywords:

Anzahl der Wörter bei Suchanfragen

© Ahrefs, 2017

Weitere wertvolle Informationen fĂŒr die Keyword-Auswahl erhalten Webmaster durch eine Analyse, mit welchen Keywords Wettbewerber in den Google-Suchergebnissen ranken. Kostenlose Tools unterstĂŒtzen SEOs und Webmaster bei der Keyword-Recherche und helfen, neue Ideen fĂŒr eine individuelle Keywordstrategie zu entwickeln.

Zum Keyword Analyse Artikel

19.4 Kostenlose Webmaster-Tools fĂŒr die Keyword-Recherche

Google Keyword-Planner

Die erste Empfehlung in unserem SEO (Suchmaschinenoptimierung) Guide ist der Google Keyword-Planner. Dieses Tool wurde fĂŒr bezahlte Werbekampagnen mit Google AdWords konzipiert. Dennoch kann der Keyword-Planner fĂŒr SEO oder Content-Marketing-Kampagnen genutzt werden. Nach Eingabe der fĂŒr eine Webseite relevanten Phrasen oder Keywords liefert das Tool Informationen zum Suchvolumen fĂŒr diese Keywords und Informationen zur Wettbewerbssituation.

Moz Keyword Explorer

Die Informationen, die der Moz Keyword Explorer liefert, Ă€hneln denen im Keyword-Planner von Google. Es wird jedoch behauptet, dass diese genauer sind, da Google seine Daten rundet und bei der Bewertung nicht so grĂŒndlich ist. Das Tool bietet detailliertere Keyword-Empfehlungen und bewertet den kumulativen Wert jedes eingegebenen Keywords qualitativ.

Hypersuggest

Die StĂ€rke von Hypersuggest liegt darin, SEOs und Webmaster bei der Entwicklung neuer Keyword-Ideen zu unterstĂŒtzen. Dazu wird einfach eine Suchanfrage in die Suchmaschine von Hypersuggest eingegeben und das kostenlose Keyword Tool stellt eine Liste mit Dutzenden von Keyword-VorschlĂ€gen zusammen. Diese werden nicht aufgrund des Suchvolumens, der Konkurrenz oder des potenziellen Werts empfohlen, sondern helfen dabei, spezifischere, relevantere und vielfĂ€ltigere Ideen fĂŒr eine Kampagne zu entwickeln. Insbesondere, wenn Webmaster mit der Keyword Recherche noch nicht sehr vertraut sind, ist Hypersuggest ein unverzichtbares Tool.

Tipp

Weitere Tools mit Anwendungsmöglichkeiten und Beschreibung finden Sie in unserem Artikel “Kostenlose SEO Tools“.

19.5 Wie sollte man bei der Keywordstrategie vorgehen?

  • Keywords fĂŒr die der Text ranken soll, identifizieren
  • Erstellen Sie sinnvolle Texte fĂŒr Ihre Besucher
  • Description und Title mĂŒssen eindeutig, informativ und attraktiv sein!
  • Decken Sie alle Synonyme und Erweiterungen des Keywords ab! ÜberprĂŒfen Sie, wie hĂ€ufig ein bestimmtes Keyword bzw. ein Synonym tatsĂ€chlich gesucht wird! Am besten Tools nutzen.
  • Nennen Sie SchlĂŒsselwörter (Keywords) mehrmals im Text! Finden Sie eine optimale Balance zwischen guter Keyworddichte (2% und maximal 5%) und guter Lesbarkeit. Vermeiden Sie Keyword-Stuffing (ĂŒberoptimierte Texte)
  • Achten Sie auf eine prominente Platzierung des Keywords
  • Keinen Duplicate Content erstellen!
  • Nutzen Sie interne und externe Links um Ihre Unterseite zu pushen
  • Je lĂ€nger der Text ist und je mehr weiterfĂŒhrende Inhalte wie Bilder existieren desto besser werden Sie ranken.

20. Bilder optimieren

Auch um die eigene Website leserfreundlich aufzubereiten, sollten Sie Ihren Content mit Bildmaterial bestĂŒcken. Die Funktion der Bilder beschrĂ€nkt sich jedoch nicht mit der des dekorativen Beiwerks – sie können weit mehr: In Bildern steckt viel SEO-Potenzial und das Optimieren von Bildern sollte bei der Suchmaschinenoptimierung unbedingt berĂŒcksichtigt werden.

20.1 Alt-Attribut, Dateiname und -format

Googles EinfĂŒhrung in die Google Suchmaschinenoptimierung liefert praktische Tipps zur Verwendung von Bildern: Google empfiehlt aussagekrĂ€ftige Kurzbeschreibungen als Alt-Attribut und kurze, treffende Dateinamen. Das Alt-Attribut (auch Alt-Tag) dient der Beschreibung von Bildern auf Webseiten. Wenn beispielsweise aufgrund von technischen Problemen ein Bild nicht angezeigt werden kann, erscheint stattdessen der im Alt-Tag angegebene Text. Auch den Suchmaschinen gibt das Attribut Informationen zum Inhalt des Bildes, da sie diesen nur zum Teil selbststĂ€ndig erkennen können. So wird auch das Erscheinen in der Bildersuche ermöglicht. Ebenso kann das Ranking in den SERPs durch das Verwenden von Alt-Tags verbessert werden.

Vermeiden Sie generische Dateinamen, die nichts ĂŒber den Bildinhalt aussagen – Beispiel “bild1.jpg” oder “img1.png”. Ebenfalls verpönt sind ĂŒberlange Dateinamen und Keyword Stuffing im Alt-Tag. Zudem rĂ€t Google davon ab, ausschließlich Bilder als Navigationslinks heranzuziehen. Der Leitfaden legt die Verwendung von gĂ€ngigen Dateiformaten wie JPEG, GIF, PNG und BMP nahe und empfiehlt das Anlegen eigener Bilder-Sitemaps.

Der kurze, aussagekrĂ€ftige Dateiname kommt ohne Umlaute und Großbuchstaben aus und enthĂ€lt das Keyword – Beispiel “weisse-maeuse.jpg”. Trennen Sie Worte per Bindestrich. Der Title-Tag, der bei Mouseover erscheint, kann dem Dateinamen entsprechen, wird jedoch aus UsabilitygrĂŒnden regulĂ€r geschrieben – Beispiel “Weiße MĂ€use”. Der Alt-Tag, die Bildbeschreibung, darf lĂ€nger sein – perfekt geeignet fĂŒr die Einbringung eines Long Tail Keywords.

20.2 Große Bilder komprimieren

Google erwĂ€hnt Dateiformat und passenden Dateinamen. DarĂŒber hinaus sollen Bilddateien die Ladezeit der Seite nicht unnötig erhöhen: Belassen Sie die DateigrĂ¶ĂŸe optimalerweise unter 150 kB. Das Layout der Google Bildersuche hat sich gewandelt: Treffer werden in hoher BildqualitĂ€t und entsprechender GrĂ¶ĂŸe angezeigt – ein Vorteil fĂŒr grĂ¶ĂŸere Bilder. Komprimieren Sie hochauflösende Bilder, um das optimale VerhĂ€ltnis von DateigrĂ¶ĂŸe und Bildabmessungen zu erzielen. DafĂŒr bieten sich Grafikprogramme oder Onlinedienste wie https://tinyjpg.com/ oder http://optimizilla.com/de/ an. Ein 1024 px breites Bild ist fĂŒr Googles neue Bildersuche ausreichend. Ziehen Sie Bilder im Querformat den hochformatigen vor.

Tipp

Viele Content Management Systeme, wie z. B. WordPress, bieten Plugins zur Bildkomprimierung.

20.3 Die Positionierung von Bildern

Suchmaschinen achten auf die richtige Positionierung des Bildes – nebeneinander befindliche Bild- und Textelemente sollen kontextuell ĂŒbereinstimmen. So weiß Google, dass die Bilder dem Leser nĂŒtzlich sind und nicht vom eigentlichen Thema abweichen. Ferner gilt die Konsistenz von Bilddateien als wichtiger Rankingfaktor: Eine mehrmalige Verwendung auf verschiedenen Unterseiten wird durchaus gerne gesehen – beachten Sie dabei jedoch, dass Sie ein und dieselbe Bilddatei stets im gleichen Zusammenhang verwenden.

20.4 Die Auswahl von Bildern

Eigene Bilder sind bessere BlickfĂ€nger als stereotype Stockphotos. Sie eignen sich zudem fĂŒr das Branding in Form von Wasserzeichen, zum Beispiel Ihres Firmenlogos. Als Hingucker haben sich Infografiken mit Mehrwert erwiesen: In selbst erstellten Infografiken steckt beachtliches Traffic-Potenzial. Auf eindeutige Stockphotos sollte außerdem verzichtet werden, da Google diese mittlerweile sehr gut erkennt (siehe Bilder unten) und einzigartigen Inhalt bevorzugt.

Google Bildersuche

© Google

Suchergebnisse einer Google Bildersuche

© Google

Die 2017 umgestaltete Google Bildersuche hat etliche Websitebetreiber verstimmt und ein kleineres Update 2018 hat daran nichts geĂ€ndert: Google-Treffer leiten nun erst mit einem zweiten Klick auf “Besuchen” direkt zur Seite weiter. Dennoch bleibt das Bilder-Optimieren fĂŒr jeden Websitebetreiber auch weiterhin eine wichtige und lukrative Maßnahme der Google Suchmaschinenoptimierung.

Tipp

In unserem Blogbeitrag Bildoptimierung im SEO haben wir weitere Optimierungsmöglickeiten fĂŒr Sie zusammengefasst.

21. Website bekannt machen: Interaktion lernen

Eine Website ist nach SEO-Anforderungen dann erfolgreich, wenn sie weit oben in der Suche zu einem relevanten Keyword in Google erscheint. Dann sind ein höherer Umsatz durch hohen Traffic und dadurch neue Kunden und Interessenten möglich. Backlinks und bewusstes Teilen der Seitenlinks durch Kunden steigern den Traffic und erhöhen den Rank. Darum rĂ€t der Google SEO (Suchmaschinenoptimierung) Guide dazu, die eigene Zielgruppe besser kennenzulernen. Aber genĂŒgt das?

21.1 Social Networking ausbauen

In den Sozialen Medien wie Twitter, Facebook, aber auch Snapchat oder Instagram, geht es darum, möglichst viele Menschen mit den eigenen Inhalten zu erreichen. Das gleiche Ziel verfolgen Sie als Unternehmer mit Ihrer Website. Kein Wunder also, dass sich diese beiden Medien nicht nur ergĂ€nzen, sondern auch bedingen. Laut statistischem Bundesamt nutzten im Jahr 2017 41 % der Unternehmen in Deutschland Netzwerke wie Facebook, LinkedIn oder Xing und 7% Dienste wie Twitter oder Communote. Rund 14 % verbreiteten eigene Inhalte ĂŒber YouTube, Picasa oder einen eigenen Podcast.

Diese Zahlen zeigen einmal mehr, wie weit Deutschland in digitalen Fragen zurĂŒckgefallen ist. Laut MarketingSherpa stimmten 2017 95% der US-Nutzer zu, dass sie Social Networks nutzen wĂŒrden oder bereits nutzen, um Marken zu folgen, die sie mögen. Laut The Drum wurden 52 % der Facebooknutzer im Jahr 2017 durch Onlineads und Inhalte in ihrem Einkaufsverhalten beeinflusst. 2014 waren es noch 36 %. Auf Deutschland ĂŒbertragen wĂ€ren das rund 15,5 Millionen der 31 Millionen Facebooknutzer, die ihre Kaufentscheidungen danach treffen, welche Unternehmen und Marken sie online wahrnehmen.

21.2 Nutzer und Kunden kennenlernen

Konkret empfiehlt die Google SEO (Suchmaschinenoptimierung) Guideline Websitebetreibern daher, den sicheren Umgang mit den sozialen Medien zu erlernen und fĂŒr die Website gewinnbringend einzusetzen. Was der Guide verschweigt ist, dass Sie Idealerweise dazu selbst eine Weile lang beobachten, interagieren und einen privaten Account nutzen sollten. So vermeiden Sie typische Fallen wie das Spammen von verkĂŒrzten Links, das als störend empfunden wird.

Google rĂ€t außerdem dazu, nicht jeden neuen Inhalt zu pushen, sondern lieber Highlights zu bewerben. WĂ€hrend also eine neue Unterseite auf der Website fĂŒr Besucher möglicherweise uninteressant ist, kann eine Blogartikelserie zu bestimmten Themen rund um Ihr Unternehmen neue Leser gewinnen. Ein Tipp, der in der Tat besonders dann wichtig wird, wenn man seine Zielgruppe noch nicht kennt. Die Zielgruppe kennenzulernen, das klappt besonders gut per Facebook. Eine Test-Ad, mit der Sie eine Nutzergruppe targeten, die bereits die Konkurrenz mit “GefĂ€llt mir” markiert hat, zeigt Ihnen, mit wem Sie es zu tun haben. Geschlecht und Alter, Onlineverhalten und Nutzungszeiten werden klar. Die ermittelten Daten der User können auch genutzt werden, um z. B. Interessen und Verhaltensweisen anderer Personen besser einschĂ€tzen zu können.

21.3 Linktauschprogramme

Veraltete Methoden wie die Teilnahme an Linkaustauschprogrammen lehnt Google ab. Ebenso sollten Menschen nicht gebeten werden, Links in ihre Partnerseiten aufzunehmen. Dass SEO-Entwickler dies entgegen des Google SEO Guidelines noch immer praktizieren liegt vor allen Dingen an der Zeitersparnis fĂŒr Backlinks bei verwandten Unternehmen.

Besser: Die Nutzer zur Interaktion mit den Social Media Posts auffordern, beispielsweise durch Aktionen und Hashtags. Verboten sind allerdings mittlerweile Posts, die Reaction-Clickbait (“Love wenn du das auch kennst”, “Like oder Hate?”) fördern. Sie werden in den Netzwerken selbst schlechter geranked und bei mehrfachem Verstoß versteckt. Der Kauf von Forenlinks wird gemeinhin ebenfalls als unseriös gewertet.

Tipp

Das Aufbauen von Backlinks ĂŒber Social Media ist nicht möglich. Es kann jedoch eine Steigerung des Traffics erzielt werden

22. Analysetools

In seinem Leitfaden fĂŒr die Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung) geht Google in zwei Abschnitten auf Analysetools fĂŒr die Suchleistung und das Nutzerverhalten von Webseiten ein. Diese Werkzeuge helfen bei der Optimierung der Seiten, indem sie einerseits Problemstellen identifizieren, die Suchmaschinen bei der Indexierung der Webseiten behindern. Andererseits lassen sich damit die Effekte von SEO-Maßnahmen messen. Dieser Teil des SEO (Suchmaschinenoptimierung) Guides stellt diese und weitere fĂŒr die Suchmaschinenoptimierung nĂŒtzliche Analysetools vor und diskutiert ihre Anwendung.

22.1 Welche Analyse-Werkzeuge empfiehlt Google?

Es kann kaum ĂŒberraschen, dass der fĂŒhrende Suchmaschinenbetreiber in seinem SEO-Leitfaden im Wesentlichen auf eigene Analysetools eingeht, die Search Console, ehemals Webmaster Tools genannt, und Google Analytics.

SEO vorbereiten mit der Search Console

Die Search Console bietet zunĂ€chst Funktionen fĂŒr die Analyse, ob die Bots der Suchmaschine die veröffentlichten Inhalte ĂŒberhaupt finden können. DarĂŒber hinaus liefert sie Informationen ĂŒber die Wirkung der analysierten Webseiten innerhalb der Suchmaschine. Damit sind folgende Funktionen gemeint:

  • Identifizieren von Problembereichen fĂŒr das Crawlen der Website
  • Bereitstellung und Analyse von Hinweisen fĂŒr das Crawlen in Sitemaps, robots.txt Dateien und Angaben bevorzugter Domains
  • Darstellung der Webseiten, wie die Suchmaschine sie sieht
  • Untersuchung von Meta-Title und Meta-Description Angaben
  • Ermittlung von Suchanfragen, die bevorzugt Nutzer auf die Webseiten lenken
  • Benachrichtigungen bei Verletzung von QualitĂ€tsrichtlinien des Suchmaschinenbetreibers
  • Anforderung einer NeuprĂŒfung der Site nach Abstellung vorgenannter Probleme

SEO-Effekte mit Google Analytics messen

Das zweite Analysetool von Google informiert ĂŒber den Effekt der Maßnahmen anhand des Nutzerverhaltens und dessen VerĂ€nderung. Damit liefert es natĂŒrlich auch Hinweise fĂŒr eine weitere Analyse. Relevante Informationen sind hier, auf welchen Wegen Nutzer auf eine Webseite gelangt sind, welche Teile einer Website besonders großes Interesse finden und wie sich die Anzahl der Zugriffe entwickelt.

Allerdings verĂ€rgert Google seine Analytics Nutzer zunehmend mit den Reportings zur organischen Suche. Statt der Suchbegriffe wird teilweise der Ausdruck “not Provided” angezeigt. Dadurch möchte Google die PrivatsphĂ€re der eigenen Nutzer schĂŒtzen.

22.2 Welche Analysetools sind im SEO Guide darĂŒber hinaus zu erwĂ€hnen?

Die in Googles Leitfaden genannten Analysewerkzeuge dienen im Wesentlichen der klassischen Suchmaschinenoptimierung. Sie konzentrieren sich auf Anfragen mit SchlĂŒsselwörtern und wie Suchmaschinen sie verarbeiten. Aufgrund der wachsenden Bedeutung sollten darĂŒber hinaus gehende Bereiche ebenfalls BerĂŒcksichtigung im SEO finden. Dazu zĂ€hlen insbesondere Social Media Signale und neue Suchmethoden wie die Websuche per Spracheingabe oder mittels der Kameras von MobilgerĂ€ten.

SEO-Tools fĂŒr die Analyse von Social Media

Social Media Signale werden von Tools wie Buzzsumo, Ryte (Onpage) oder Socialyser analysiert. Der Like Explorer erfasst die Anzahl der Likes einer Website in gÀngigen Social Media KanÀlen. Impactana und Onalytica fokussieren zudem auf die Identifizierung relevanter Influenzer.

Suchmaschinenoptimierung mit Blick auf Voice– und Video-Search

Sprach- und visuelle Suche erfordern nicht unbedingt andere SEO-Analysetools, aber einen geÀnderten Umgang mit ihnen. Gesprochene Suchanfragen sind tendenziell anders strukturiert, lÀnger, enthalten mehr Keywords und oft charakteristische Fragewörter. Dagegen generiert die Suchmaschine die Anfrage bei der visuellen Suche vollstÀndig selbst, aus dem von der Kamera aufgezeichneten Bildinhalt.

22.3 Alternativen zu den Analysetools von Google & Co

Die Daten der Analysetools von Google sind oft beschrĂ€nkt, daher empfehlen wir die Nutzung weiterer Tools. FĂŒr ein gutes SEO (Suchmaschinenoptimierung) ist das Reporting ein wichtiger Faktor. Wichtige KPIs können so leicht beobachtet und auf Entwicklungen reagiert werden. Das OSG Performance Suite der OSG vereint zum Beispiel die Daten der wichtigsten Tools wie die Google Seach Console, Google Analytics, Google AdWords, Sistrix und andere. Mit der App fĂŒr Apple oder Android können auch von unterwegs tagesaktuelle Auswertungen aus dem SEO, SEA, Webcontrolling, etc. abgerufen werden.

DarĂŒber hinaus bietet der kostenlose SEO onPage Check der OSG die Möglichkeit, technische Faktoren hinsichtlich der Einhaltung der Google-Richtlinien zu ĂŒberprĂŒfen.

Dem Thema SEO Reporting haben wir einen eigenen Blogartikel gewidmet. Dort wird erlĂ€utert, warum das SEO Reporting so wichtig ist. Außerdem werden einige Tools vorgestellt.

23. SEO Tools: Warum SEO Daten nie stimmen

Auch bei der Google Suchmaschinenoptimierung ist es von großer Bedeutung die gesteckten Ziele zu erreichen. Um sicherzustellen, dass diese auch erreicht werden, mĂŒssen verschiedene Daten erhoben und analysiert werden. HierfĂŒr stehen verschiedene SEO-Tools zur VerfĂŒgung, die neben den aktuellen Daten auch zur UnterstĂŒtzung bei der Optimierung genutzt werden können.

Ob Sichtbarkeit, Traffic oder Impressionen – die unterschiedlichen Tools liefern fĂŒr identische Analysen unterschiedliche Resultate. Wenn man die Zahlen der einzelnen SEO-Tools miteinander vergleicht, so wirkt es, als wĂŒrden SEO (Suchmaschinenoptimierung) Daten nie wirklich stimmen.

23.1 Suchvolumen und Impressionen

Mit dem Suchvolumen wird die Anzahl der durchschnittlichen monatlichen Suchanfragen fĂŒr ein Keyword angegeben, unabhĂ€ngig davon, wie viele Personen diese Anfrage gestellt haben. Der Wert fĂŒr das Suchvolumen setzt sich auf Basis des Durchschnitts sĂ€mtlicher Suchanfragen der letzten zwölf Monaten zusammen.

In diesem Zusammenhang wird das Suchvolumen auch mit den Daten bezĂŒglich der Impressionen – Google Search Console und SEA – verglichen.

Vergleich des Suchvolumens mit den Impressionen der Search Console und SEA

© Screenshot: Suchvolumen vs. GSC Impressionen vs. SEA Impressionen

Betrachtet man nun sowohl das Suchvolumen als auch die Impressionen fĂŒr die Keywords in der Google Search Console (GSC) bzw. die SEA Impressionen, so scheinen die Daten nicht wirklich ĂŒbereinzustimmen. Bei der Analyse der Daten ist zu beachten, dass das Suchvolumen bekanntlich einem monatlichen Durchschnittswert entspricht und nur zur Orientierung oder zum EinschĂ€tzen des Potenzials eines Keywords dient. ZusĂ€tzlich spielt bei den Impressionen, die in der Search Console erfasst werden, auch die Position des Suchbegriffs in den Suchergebnissen eine wichtige Rolle. So werden die Impressionen weniger, je schlechter die Position in den Google Suchergebnissen.

Es gibt keine Garantie, dass das Suchvolumen auch tatsÀchlich erreicht werden kann. Letztendlich handelt es sich beim Suchvolumen um eine Momentaufnahme, die in Form eines monatlichen Durchschnitts der vergangenen zwölf Monaten dargestellt wird.

Tipp

Im SEA haben auch SaisonalitĂ€t und Impression Share Auswirkungen auf die tatsĂ€chlichen Impressionen. Beispielsweise entspricht die SEA Impression fĂŒr “Werbekugelschreiber” einem Share von etwa 62 %. Demnach sind knapp 38 % der Impressionen nicht erfasst worden. Somit liegt der bereinigte Wert bei 1.437.

Mit Google Trends kann ĂŒberprĂŒft werden, ob es Schwankungen fĂŒr ein Keyword gegeben hat. So kann man ableiten, wie genau der Wert fĂŒr einen Monat ĂŒberhaupt sein kann.

23.2 Domain PopularitÀt

Mit der Domain PopularitĂ€t wird die Anzahl an Backlinks angegeben, die von verschiedenen Domains auf eine Website verweisen. Dies bietet nĂŒtzliche Informationen, unter anderem zur Bewertung von Links bei der Backlink-Analyse.

MOZ, Majestic, Ahref oder SEOkicks – es gibt eine Vielzahl an Tools zur Analyse von Backlinks. Diese Tools helfen dabei, die Anzahl und QualitĂ€t der Backlinks und verlinkenden Domains auszuwerten. Dabei fließen einige Faktoren wie der TrustRank oder die LinkpopularitĂ€t, aber auch die QualitĂ€t der verlinkenden Seite mit in die Bewertung ein.

Analysiert man die verweisenden Links einer Domain mit den Tools Majestic und MOZ, so erhĂ€lt man unterschiedliche Resultate. Die folgende Tabelle zeigt einen Vergleich der Anzahl der verweisenden Domains fĂŒr die OSG und einige unserer Kunden.

Vergleich von verweisenden Links in Majestic und MOZ

Copyright © Screenshot: Vergleich – Majestic vs. MOZ

Betrachtet man die Tabelle genauer, fallen sofort die Unterschiede bezĂŒglich der verweisenden Domains der beiden Tools auf. Dies ist auf die verschiedenen Datengrundlagen der jeweiligen Tools zurĂŒckzufĂŒhren. Sowohl Majestic als auch MOZ haben ihre individuellen StĂ€rken. Die MOZ-Werte sind vor allem dann interessant, wenn mehrere Domains verglichen werden sollen. Dahingegen bietet Majestic eine große Datenbank bereits gecrawlter URLs. Diese werden in einen aktuellen und einen historischen (Ă€lter als 3 Monate) Index unterteilt.

UnabhĂ€nigig davon, bieten MOZ und Majestic, aber auch die anderen Backlink-Analysetools, nĂŒtzliche Kennzahlen und Einblicke in die verlinkenden Domains und die Entwicklung der einzelnen Backlinks – so ist es beispielsweise möglich festzustellen, ob es neue Links zu einer Website gibt oder zuvor existieren Links nicht lĂ€nger vorhanden sind.

Die Aufgaben eines Backlink-Tools kommen denen einer Suchmaschine gleich. Daher wurde bei der Entwicklung der Tools ein Kompromiss aus GrĂŒndlichkeit und Geschwindigkeit gefunden. Dabei liegt die Schwierigkeit darin, alle Seiten zu crawlen und dies zugleich möglichst grĂŒndlich und hĂ€ufig auszufĂŒhren. Die Server-Daten des Backlink-Tools Ahref zeigt, was fĂŒr ein Ressourceneinsatz zur DurchfĂŒhrung notwendig ist.

Ahref Serverdaten - benötigte Ressourcen von Backlink Tools

© ahref.com

23.3 Sichtbarkeit

Mit dem Sichtbarkeitsindex wird angegeben, wie sichtbar eine Domain in den Google Suchergebnissen ist. Je nach Tool – Sistrix, Searchmetrics oder XOVI – werden unterschiedliche Methoden zur Bewertung des Website-Rankings und somit zur Berechnung der Sichtbarkeit verwendet. Diese unterschiedlichen BerechnungsansĂ€tze können zu unterschiedlichen Entwicklungen der Sichtbarkeit fĂŒhren. Daher sollte man sich auch fragen, wie aussagekrĂ€ftig der Sichtbarkeitsindex wirklich ist.

Vergleich der Sichtbarkeit von Sistrix und XOVI

© Screenshot/OSG Performance Suite

Die Grafik zeigt deutlich, dass die Sichtbarkeitsentwicklung unterschiedlich verlÀuft. Dabei ist jedoch zu beachten, dass sowohl Sistrix als auch XOVI die Sichtbarkeit mit verschiedenen Skalen darstellen und diese auch auf unterschiedlich Weise berechnen.

Betrachtet man die Kennzahlen beider Tools separat, so erkennt man weitere Unterschiede im Verlauf der Sichtbarkeitswerte.

Sichtbarkeitsentwicklung in Sistrix

© Screenshot/Sistrix

Sichtbarkeit in Xovi

© Screenshot/XOVI

Die Graphen zeigen, dass der Sichtbarkeitsindex bei Sistrix stĂ€rker auf Schwankungen reagiert und volatiler, als dies bei XOVI der Fall ist. Dies liegt vorrangig an den ungleichen Berechnungen der Sichtbarkeitswerte. So berechnet sich die Sichtbarkeit bei Sistrix durch eine Gewichtung der Rankings und des Traffics eines Keywords. Dieser Wert wird dann fĂŒr alle Keywords summiert und bildet den Sichtbarkeitsindex. Dahingegen berechnet XOVI die Sichtbarkeit auf Basis des quantitativen und qualitativen Rankings der Domain fĂŒr die einzelnen Keywords.

Die OSG Performance Suite hat einen eigenen Sichtbarkeitswert entwickelt, der sich aus dem Suchvolumen und dem Ranking der einzelnen Keywords zusammensetzt. Dabei werden nur die, fĂŒr die Website hinterlegten Keywords berĂŒcksichtigt, welche fĂŒr die Domain relevant sind.

Tipp

Es kann durchaus sein, dass die Werte der drei Tools gleich sind und mit dem Traffic korrelieren. Die Abweichungen können aber teilweise extreme Unterschiede aufweisen. Obwohl die Sichtbarkeit ein schwer nachvollziehbare Kennzahl darstellt, hat sie in den letzten Jahren eine gefĂ€hrlich hohe PrioritĂ€t im Markt zugesprochen bekommen. VerlĂ€sslichere und greifbarere Zahlen bieten dabei einzelne Keywords und Traffic. Diese haben eine geringere Fehlerwahrscheinlichkeit. Vertrauen Sie daher nicht blind einem SEO-Tool, völlig unabhĂ€ngig ob es sich dabei um Sistrix, Xovi oder Searchmetrics handelt. Bei Anstiegen oder Abstiegen sollten Sie auch immer Ihre SERPs und den organischen Traffic prĂŒfen. So sehen Sie schnell, ob Sie wirklich ein Problem haben oder nicht.

23.4 Website-Traffic

Es ist wichtig zu wissen, wie viele Besuche eine Website bekommt. Mit den kostenlosen Tools Google Analytics und Google Search Console (GSC) erhĂ€lt man nĂŒtzliche Kennzahlen, zum Beispiel bezĂŒglich der Suchanfragen oder der Seitenzugriffe. Anhand verschiedener Berichte ist es so möglich, Einblicke in das Verhalten der Besucher auf der Seite zu bekommen.

Sowohl Analytics als auch die Search Console sammeln Traffic-Daten einer Website. Daher bietet es sich an, die Zugriffszahlen fĂŒr Websites von ausgewĂ€hlten Kunden mit den beiden genannten Tools zu vergleichen. Eigentlich sollte man annehmen, dass die erfassten Zugriffe bei beiden Tools identisch sind.

Die folgende Tabelle vergleicht somit die von der GSC erfassten SEO (Suchmaschinenoptimierung) Klicks auf eine Website mit den in Analytics erfassten Sitzungen ĂŒber eine zuvor definierte Zeitspanne (Februar 2019).

Vergleich Traffic - Analytics vs. Search Console

© Screenshot: Traffic – Analytics vs. GSC

Aber auch hier zeigen sich WidersprĂŒche in den SEO-Daten. Abweichende Website-Besucherzahlen, die von den beiden Google Tools ausgeben werden, sind deutlich erkennbar. Dabei fĂ€llt auf, dass die Traffic-Kennzahlen bei stĂ€rker besuchten Seiten einen grĂ¶ĂŸeren Unterschied aufweisen. Folglich stimmen die Daten fĂŒr “kleinere” Kunden eher ĂŒberein als bei den “großen” Kunden.

AuffÀllig ist zudem, dass Google Analytics im Vergleich geringere Traffic-Zahlen ausgibt als die Google Search Console. Diese spiegelt sich auch in der prozentualen Abweichung wider.

Warum SEO Daten verglichen werden sollten

FĂŒr gewöhnlich werden Entscheidungen erst getroffen, nachdem man sich entsprechend informiert hat oder Daten verglichen wurden. Ähnlich ist das auch bei der Suchmaschinenoptimierung. Die SEO-Tools bieten mit ihren Funktionen Orientierungspunkte fĂŒr die weitere Optimierung von Webseiten. Daher sollten man nicht nur auf ein Tool setzen, sondern Kennzahlen wie Sichtbarkeit, Impressionen oder Traffic mit einem zweiten Analyse-Tool gegenprĂŒfen. Auf diese Weise kann man die VerlĂ€sslichkeit der SEO Daten testen und verifizieren. Dies ist ĂŒbrigens auch fĂŒr die Technik Analyse zutreffend!

Jedes der SEO Tools legt einen anderen Schwerpunkt oder verfĂŒgt ĂŒber eine differenzierte Ausgangslage im Vergleich zu einem Alternativ-Tool. Bei der Analyse muss man sich dieser Tatsache also bewusst sein und folglich die erhaltenen Daten als eine Art Orientierung verstehen, die bei der weiteren Optimierung unterstĂŒtzt, indem neue Anhaltspunkte gegeben werden.

Mittlerweile gibt es eine Vielzahl von SEO-Tools, die bei der Analyse behilflich sein sollen. Werden jedoch Strategien auf Basis von fehlerhaften Auswertungen entwickelt, kann das fatale Folgen haben. Mit unserer OSG Performance Suite benötigen Sie nur noch ein Tool zur Analyse Ihrer SEO-Daten. Das Konzept hinter der Performance Suite verfolgt, als Datawarehouse-System und Business-Intellegence-System, ein altbekanntes Ziel: Daten werden zentral gesammelt, um diese dann einfacher auswerten und interpretieren zu können. Ein Modell aus der IT, das vor fast einem halben Jahrhundert erstmalig von Barry Devlin verwendet wurde, kommt nun auch in der nÀchsten Phase des Online Marketings zum Einsatz.

Sie können die OSG Performance Suite auch als App auf Ihren iOS- oder Android-GerÀten kostenlos nutzen. Laden Sie diese hierzu aus dem Apple App Store oder dem Google Play Store herunter.

24. Suchmaschinenoptimierung 2.0: Wie modernes SEO funktioniert

Das Rennen zwischen Suchmaschinen und Suchmaschinen-Optimierern erinnert auf den ersten Blick an den Wettkampf zwischen Hase und Igel: Egal, wie sehr sich die Seitenbetreiber ins Zeug legen – Google hat immer die Nase vorn. Doch der erste Eindruck tĂ€uscht. Wer technisch und inhaltlich am Ball bleibt, seinen Content gezielt im Netz verbreitet und das Angebot optimal auf die Zielgruppe ausrichtet, der wird sogar belohnt.

24.1 Suchmaschinenoptimierung (SEO) ist und bleibt der wichtigste Kanal

Unbestrittener Fakt ist: Wer einen erfolgreichen Online-Shop betreiben will, der kommt um Suchmaschinenoptimierung (SEO) nicht herum. Das bestĂ€tigt auch eine Untersuchung der Londoner Firma Similar Web, die auf das Sammeln von Daten und deren Analyse spezialisiert ist. Demnach betrĂ€gt der Anteil der organischen Suche am Traffic, also der Zahl der Webseiten-Besucher, in der Kategorie „Shopping“ international knapp 95 Prozent. Zwar unterscheiden sich die genauen Ergebnisse je nach Branche und Land, doch der Grundtenor ist klar: Eine grĂŒndliche und fundierte Suchmaschinenoptimierung ist fĂŒr Online Shops nach wie vor unabdingbar.

Doch nicht nur, wenn es darum geht, interessierte Nutzer auf die Seite zu holen, ist Suchmaschinenoptimierung  (SEO) entscheidend. In den USA wurden im Jahr 2015 im Rahmen einer Studie fĂŒr den Softwarehersteller Adestra 1000 Marketing-Experten nach der ProfitabilitĂ€t der verschiedenen Marketing-KanĂ€le gefragt. Dabei schĂ€tzten 27 Prozent der Marketeers den SEO-Kanal als exzellent und weitere 46 Prozent als gut ein. Damit liegt SEO (Suchmaschinenoptimierung) deutlich vor dem zweitstĂ€rksten Kanal, dem E-Mail-Marketing. Eine Investition in professionelle Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung) lohnt sich also gleich in mehrfacher Hinsicht.

24.2 Suchmaschinenoptimierung (SEO) im Wandel: immer am Ball bleiben

Dabei hat wohl kaum ein Kanal in den letzten zehn Jahren eine solche Wandlung vollzogen wie SEO. Ging es in den Anfangszeiten in erster Linie darum, eine möglichst hohe Keyword-Dichte auf den Webseiten zu garantieren, so steht heute vor allem die User-Experience im Fokus. Modernes SEO ist ein Kanal mit vielen Schnittstellen. Nur wer eine ganzheitliche Strategie fĂŒr alle Online Marketing KanĂ€le findet, kann langfristig bestehen. Gerade fĂŒr kleine und mittlere Unternehmen ist es darum wichtig, nachhaltig zu planen und immer am Ball zu bleiben. Denn wĂ€hrend die Online Marketing Experten ihre Tools und Techniken immer weiter verbessern, bleibt auch Google nicht untĂ€tig. Mit immer neuen Updates und Verfeinerungen im Such-Algorithmus will die grĂ¶ĂŸte aller Suchmaschinen kontinuierlich die Seiten ausmustern, die ihren Besuchern keinen Mehrwert bieten.

Es ist also nicht damit getan, beim Aufsetzen eines Online Shops alle Seiten nach den aktuellen SEO-Kriterien zu optimieren und sich dann zurĂŒckzulehnen: Wer im Rennen um die Top Ten Platzierungen nicht stĂ€ndig am Ball bleibt, fĂ€llt schnell zurĂŒck. Und wer einmal den Anschluss verloren hat, muss um ein Vielfaches hĂ€rter arbeiten, um sich wieder nach vorne zu bringen. Erschwert wird dies dadurch, dass die organische Suche zwar immer wichtiger wird – die Anzahl der organischen Ergebnisse auf der ersten Seite jedoch abnimmt. Von zehn organischen Suchergebnissen sind inzwischen nur noch acht bis neun ĂŒbrig. Bezahlte Ergebnisse und WerbeplĂ€tze buhlen zudem um die Aufmerksamkeit der User. Echte Top-Platzierungen sind also wichtiger denn je.

Beispiel fĂŒr eine moderne Suchergebnisseite zum Suchwort „Google“

© Google

Hier kommen Online Marketing Agenturen wie die Online Solutions Group GmbH ins Spiel. Mit dezidierten Spezialisten fĂŒr die verschiedenen Online Marketing KanĂ€le unterstĂŒtzt sie Unternehmen bei der Entwicklung einer ganzheitlichen und nachhaltigen Strategie. Die Experten haben die neuesten Trends immer auf den Schirm und können auf Änderungen schnell reagieren, sodass gute Platzierungen erhalten bleiben und schwache Keywords kontinuierlich nach vorne gebracht werden.

24.3 Wie funktioniert moderne Suchmaschinenoptimierung (SEO)?

Was will Google eigentlich? Eine Frage, die sich vermutlich jeder Seitenbetreiber schon einmal verzweifelt gestellt hat. Die Antwort ist mittlerweile ziemlich einfach: Google will, dass jeder Nutzer fĂŒr seine Suchanfrage das perfekte Ergebnis erhĂ€lt. Also eine Seite, die seine Frage beantwortet, seine BedĂŒrfnisse erfĂŒllt oder das richtige Produkt fĂŒr ihn anbietet.

Um zu garantieren, dass ein Online Shop diese Anforderung erfĂŒllt, sind SEO Manager lĂ€ngst keine EinzelkĂ€mpfer mehr. Die Vernetzung mit anderen KanĂ€len, allen voran SEA und Social Media, sowie ein Fokus auf technische On-Site-Verbesserungen sind entscheidend fĂŒr den SEO-Erfolg. Wichtig ist dabei auch, dass es kaum noch einen Unterschied macht, ĂŒber welche Zielmaschine die Nutzer eine Seite aufrufen – ob sie also am PC, auf dem Smartphone oder einem Tablet darauf zugreifen. Moderne Websites mĂŒssen auf jeder Plattform ideal angezeigt werden und entsprechend dafĂŒr optimiert sein, um Seitenbesucher und Suchmaschinen gleichermaßen zu ĂŒberzeugen. Erst kĂŒrzlich hat Google bestĂ€tigt, dass in Zukunft das Ranking ĂŒberwiegend auf der mobilen Website basieren wird.

Auf welche Kriterien achtet also Google, wenn es um die Bewertung der User Experience geht? Ein wichtiger Bestandteil ist die sogenannte Bounce Rate. Diese misst, wie viele Nutzer die Website unmittelbar wieder verlassen, nachdem die auf der Startseite gelandet sind. Ist die Bounce Rate sehr hoch, geht Google davon aus, dass die Inhalte auf der Seite nicht zur Suchanfrage passen und die User dort nicht finden, was sie erwartet haben.

Ebenfalls wichtig ist die Verweildauer. Je lĂ€nger die Nutzer auf einer Seite bleiben und je öfter sie innerhalb der Seite klicken und neue Inhalte aufrufen, desto relevanter erscheint das Suchergebnis fĂŒr Google. Auch die Frage, wie gut sich ein Kunde auf der Seite zurechtfindet, spielt eine Rolle. Die „Klick-through-Rate“ bezeichnet, wie schnell ein Kunde auf der Seite zu den gewĂŒnschten Inhalten kommt und ob er einen Bestellvorgang schnell abschließen kann.

24.3.1 Accessibility und technische OnPage-Optimierung

Wenn der Suchmaschinen-Crawler auf einer Seite nicht weiterkommt, wird er davon ausgehen, dass es den menschlichen Nutzern Ă€hnlich geht. Damit die Inhalte einer Seite also gute Rankings erzielen können, muss zunĂ€chst einmal die Grundlage stimmen. Das bedeutet: Die Seite muss ĂŒbersichtlich, gut strukturiert und leicht zugĂ€nglich sein. Nicht umsonst steht dieser Aspekt der Optimierung unter der Überschrift „Accessibility“, also Barrierefreiheit.

DafĂŒr mĂŒssen insbesondere folgende Punkte erfĂŒllt sein:

  • Keine 404-Fehler: Einrichtung von 301-Weiterleitungen fĂŒr „kaputte“ oder gelöschte Seiten
  • Sauberer Seitenquelltext: kein ĂŒberflĂŒssiger Code, komprimierte Inhalte
  • Klare Seitenstrukturen: Gezielter Einsatz von Header-Tags
  • Übersichtlicher Content: Bullet-Listen, Fettungen, AbsĂ€tze
  • Verschiedene Content-Arten: Text, Bild, Video
  • Vermeidung von JavaScript und Flash-Animationen
  • Saubere Meta-Daten: Individuelle Title und Description fĂŒr jede Seite

24.3.2 Engagement und Social Signals: Den Nutzer abholen und neue Nutzer gewinnen

Ein Nutzer, der sich auf einer Seite wohl fĂŒhlt, der hĂ€lt sich gerne dort auf. Er klickt sich durch die Inhalte und fĂŒhrt Bestellungen aus oder versendet Anfragen. Im Idealfall bleibt es aber nicht dabei: Überzeugte Nutzer sind mehr als nur Kunden. Sie werden zu wahren Fans, kommentieren Texte oder Produkte und teilen den Content der Website aktiv mit ihrem digitalen Freundeskreis. Wenn dies der Fall ist, spricht man von Engagement.

Wichtige Social Signals sind:

  • Shares und Likes auf sozialen Plattformen wie Facebook
  • Kommentare im eigenen Blog
  • Reichweite in Social Media

Zwar hat Google erklĂ€rt, dass Social Signals derzeit nicht Teil des Such-Algorithmus sind – das heißt aber nicht, dass dies auf Dauer so bleiben wird. Zudem sind sie wichtig fĂŒr die Kundenbindung und die Markenbekanntheit. Auf jeden Fall sollte eine strukturierte und fundierte Social Media Strategie unbedingt Teil des Online Marketing Plans sein. Denn abgesehen von den positiven Markeneffekten kann heute niemand zuverlĂ€ssig sagen, ob Social Signals nicht in Zukunft eine grĂ¶ĂŸere Rolle in den Rankings spielen werden. Zu guter Letzt darf man nicht vergessen, dass Google zwar mit Abstand der grĂ¶ĂŸte, nicht aber der einzige Player auf dem Markt ist. Die Betreiber der am zweithĂ€ufigsten genutzte Suchmaschine, Bing, haben im schriftlichen Interview mit der Online Zeitschrift Search Engine Land bereits erklĂ€rt, dass sie Social Signals sehr wohl in ihre Suchergebnisse mit einbeziehen.

Zitat von Bing zum Thema Social Signals

© www.searchengineland.com

Zitat aus dem Interview vom 1.12.2010 – Quelle: www.searchengineland.com

24.3.3 Interaktiv und spannend: Rich Content und Rich Media

Ein Punkt, an dem man allerdings auf keinen Fall vorbei kommt, wenn man erfolgreiche Suchmaschinenoptimierung (SEO) betreiben möchte, ist der sogenannte Rich Content. Unter Rich Content oder auch Rich Media versteht man Inhalte, die ĂŒber den klassischen Text und statische Bilder hinausgehen. Zu solchen Formaten gehören Videos und Podcasts aber auch eBooks oder Whitepaper. Laut einer Studie von Cisco sollen Videos bis 2019 ganze 80 Prozent der Internetnutzung ausmachen.

Video-Inhalte werden immer wichtiger laut Cisco.

© www.cisco.com

 

Groß im Kommen ist auch interaktiver Content wie Fragebögen, Tests und klickbare Infografiken. Alles, was den User auf der Seite hĂ€lt, ihn informiert und unterhĂ€lt, ist erlaubt. Dabei sollte allerdings der klassische Content nicht zu kurz kommen, denn fĂŒr die Suchmaschinen ist er immer noch einer der wichtigsten Indikatoren. Wie so oft macht es hier die Mischung: Ein gelungener Mix aus hochwertigen Texten und unterhaltsamen Content Formen ist die beste Strategie.

24.4 Die Grundlagen: Ohne Keywords geht nichts!

Totgesagte leben lĂ€nger – fĂŒr das Keyword gilt dieses Sprichwort auf jeden Fall. Schon oft wurde es fĂŒr tot erklĂ€rt, doch jedes Mal bewies sich aufs Neue: Ohne Keywords geht nichts im SEO. Kein Wunder, ist doch „Keyword“ letztendlich nichts anderes als ein Synonym fĂŒr die Suchanfrage – und die ist und bleibt der Dreh- und Angelpunkt in der Google Suchmaschinenoptimierung. Wahr ist allerdings, dass sich im Umgang mit dem Keyword und der Optimierung darauf einiges geĂ€ndert hat. Die reine Keyworddichte ist lĂ€ngst nicht mehr ausschlaggebend.

24.4.1 Wie findet man die richtigen Keywords?

GrundsĂ€tzlich ergibt sich die Keyword-Auswahl aus dem Thema einer Seite, der Produktauswahl in einem Shop und den KundenbedĂŒrfnissen, die mit der Seite erfĂŒllt werden sollen.  Hier lohnt sich auch immer ein Blick auf die Wettbewerber: FĂŒr welche Keywords rankt die Konkurrenz? Hierbei helfen SEO-Tools wie Sistrix oder der Keyword Monitor, die einen Überblick ĂŒber die Rankings der Wettbewerber liefern. Wenn ein Unternehmen bereits im SEA aktiv ist und dort Kampagnen schaltet, können die erfolgreichsten Keywords daraus auch fĂŒr SEO-Strategie genutzt werden.

Google Keyword Planer

Mit dem Keyword Planer gibt Google den SEO-Experten ein Tool an die Hand, mit dem sie nicht nur das Suchvolumen fĂŒr bestimmte Keywords abrufen können, sondern auch VorschlĂ€ge fĂŒr Keywords rund um ihr Kernthema erhalten. Man bekommt außerdem eine Vorstellung davon, wie hart umkĂ€mpft ein Keyword ist. Der Nachteil: Mittlerweile erhĂ€lt man nur dann genaue Informationen ĂŒber das Suchvolumen, wenn mit dem Google Account mindestens eine aktive Kampagne angelegt wurde. Nichtsdestotrotz ist der Keyword Planer eines der wichtigsten Tools fĂŒr eine grĂŒndliche Keyword Analyse.

Google Keyword Planner SEO Suchmaschinenoptimierung

© Google Ads

Google Suggest

Google weiß, was die Nutzer suchen, bevor sie es selbst wissen – das ist die Idee hinter Google Suggest. Wird ein Suchbegriff in die Suchmaske von Google eingegeben, so ergĂ€nzt Google den Begriff und schlĂ€gt die am hĂ€ufigsten gesuchten Phrasen in diesem Zusammenhang vor.

Google Suggest schlÀgt passende Keyword-Phrasen vor.

© Google

W-Fragen Tool

Interessant ist auch das W-Fragen-Tool. Dieses erstellt mögliche Kundenfragen rund um ein bestimmtes Keyword. Dies ist insbesondere spannend, da immer mehr Nutzer die Suchmaschinen wie einen Ratgeber verwenden und tatsĂ€chliche Anfragen in die Suche eintippen. Das Wissen um die Kundenfragen hilft außerdem dabei, relevanten Content zu erstellen und wichtige Keywords entsprechend auf den Seiten einzubinden.

Das W-Fragen-Tool hilft bei der Keyword-Auswahl

© W-Fragen-Tool

24.4.2 Suchvolumen ­– wie wichtig ist es wirklich?

Es ist verlockend, sich auf die Keywords zu beschrĂ€nken, die ein hohes Suchvolumen aufweisen. TatsĂ€chlich machen diese aber weniger als ein Drittel aller Suchanfragen aus. Ganze 70 Prozent der tĂ€glichen Anfragen erfolgen ĂŒber die sogenannten „Long-tail-Keywords“, die jedes fĂŒr sich genommen zwar nur wenig Suchvolumen haben – in Summe jedoch viel Traffic generieren können. Hier heißt es also: Die Masse macht’s! Um die Kraft der Long-tail-Keywords optimal nutzen zu können, sind Content-Quellen wie produktgruppenspezifische Unterseiten und Blog-Artikel unerlĂ€sslich. Am besten bestehen Keywords aus 2 bis max. 4 Keywords, die auch in einen Satz eingebunden sein können. Denn laut OneSat.com bestehen mehr als 33% der Suchanfragen aus zwei Wörtern.

longtail vs. shorthead keywords

© OSG

Wenn die relevanten Keywords ermittelt wurden, mĂŒssen sie nach PrioritĂ€t geordnet werden: Die wichtigsten Suchbegriffe sollten ĂŒber die Startseite abgedeckt werden. In der Regel handelt es sich hierbei  eher um suchvolumenstarke Short-tail-Keywords. Im weiteren Verlauf werden die Keywords weiter nach Kategorien und Produkten unterteilt. Je tiefer sich eine Seite in der Seitenhierarchie befindet, desto lĂ€nger ist fĂŒr gewöhnlich das Keyword und desto geringer das Suchvolumen. Idealerweise hat jedes relevante Keyword, zum Beispiel jede Produktgruppe, seine eigene Unterseite.

Bei der Priorisierung sollte stets das KundenbedĂŒrfnis im Fokus stehen:

  • Ist das Keyword wirklich interessant fĂŒr die Zielgruppe?
  • Finden die User relevante Inhalte zu diesem Keyword auf der Seite?
  • Welche Keywords sind in AdWords bereits erfolgreich?
  • Haben Nutzer, die dieses Keyword suchen, eine Kaufabsicht?

Der letzte Punkt ist besonders wichtig, wenn mit einer Seite auch Umsatz erzielt werden soll. Nicht jede Suchanfrage geht mit einer Kaufabsicht einher. Werden nur solche Keywords abgedeckt, die nicht zum Kauf fĂŒhren, leidet die Conversion. Das heißt aber nicht, dass andere Keywords vernachlĂ€ssigt werden können: Kunden, die sich heute nur informieren wollen, kaufen morgen im Shop ein. Die Frage ist also weniger ob, sondern vielmehr wie und wo ein Keyword abgedeckt wird: So gehören conversion-starke Keywords eher in den Shop und Keywords mit hohem Informationscharakter eher in einen Blog oder Ratgeber.

Die Bedeutung von Long-tail-Keywords und W-Fragen dĂŒrfte aufgrund neuer Entwicklungen in den nĂ€chsten Jahren noch zunehmen. Mit Amazon Echo hat Amazon den Grundstein fĂŒr einen interessanten Trend gelegt: Der intelligente Voice-Assistent mit dem Rufnamen Alexa wird in der Wohnung aufgestellt und erkennt und beantwortet einfache Fragen, zum Beispiel nach dem Wetter. Ähnlich wie Apples Sprachassistentin Siri ist Amazon Echo ein Schritt hin zur flĂ€chendeckenden Nutzung von Sprachsteuerung. Auch Google hat mit Google Home bereits ein entsprechendes System vorgestellt.

Schon heute nutzen 51 Prozent der User ihren Sprachassistenten regelmĂ€ĂŸig im Auto, 39 Prozent machen zuhause Gebrauch davon.  Und Google CEO Sundar Pichai erklĂ€rte in der Google I/O Keynote im Mai 2016, dass bereits 20 Prozent der mobilen Suchanfragen ĂŒber die Sprachfunktion eingehen. Es ist also durchaus zu erwarten, dass Suchanfragen, die dem normalen Sprachgebrauch entsprechen, in Zukunft eine immer grĂ¶ĂŸere Rolle spielen – denn wer sich mit Alexa, Google OK oder Siri unterhĂ€lt, der sagt nicht: „Alexa, Wetter MĂŒnchen“, sondern fragt: „Alexa, wie ist das Wetter heute in MĂŒnchen?“.

24.5 Mit welchen Techniken arbeitet die Suchmaschinenoptimierung 2.0?

Wie bereits erwĂ€hnt, ist die eigene Seite die Basis aller SEO-AktivitĂ€ten. Wenn hier nicht alles stimmt, können Maßnahmen wie Content-Optimierung oder Linkaufbau nur bedingt fruchten. Als Grundlage fĂŒr die Suchmaschinenoptimierung sollte also die Seite technisch geprĂŒft und wenn nötig auf Vordermann gebracht werden.

Sehr wichtige Aspekte sind hierbei:

  • Geringe Ladezeiten
  • Übersichtliches Design
  • Optimierung fĂŒr mobile EndgerĂ€te
  • Sauberer Quellcode
  • Saubere URL-Struktur
  • Übersichtliche Navigation

Dabei sollten stets auch die neuesten Technologien zum Einsatz kommen – denn wer sich auf veraltete Technik verlĂ€sst, wird schneller abgehĂ€ngt als ihm lieb ist. Eine der wichtigsten Neuerungen ist beispielsweise die Veröffentlichung der Programmiersprache PHP 7, die deutlich schneller und sparsamer im Speicherverbrauch ist als die VorgĂ€ngerversion. Wer wettbewerbsfĂ€hig bleiben will, wird um einen Umstieg nicht herum kommen, zumal 2017 auch der Support fĂŒr den elf Jahre alten VorgĂ€nger PHP 5 vollstĂ€ndig eingestellt werden soll. Zukunftsweisend fĂŒr schnelleres Surfen ist zudem die Verwendung von HTTP/2, die Weiterentwicklung des klassischen Hypertext Transfer Protocol (http), ohne das Webseiten nicht im Browser angezeigt werden können. Unter dem Slogan „Make the web faster“ hat Google selbst die Entwicklung seit 2009 maßgeblich vorangetrieben. Nach aktuellem Stand im November 2016 nutzen 10,4 Prozent der Seiten bereits HTTP/2 – Tendenz stark steigend.

Der Einsatz neuer Technologien wie HTTP/2 steigt.

© W3Techs.com

Auch das Projekt Google AMP (Accelerates Mobile Pages) zeigt, wohin die Reise in Zukunft geht: Mobile Seiten können mit dieser Technik bis zu viermal schneller laden – mit bis zu zehnmal geringerer Datenlast als herkömmliche mobile Seiten. Websites, die von Google als AMPs klassifiziert wurden, werden seit September 2016 mit einem entsprechenden Symbol in den Suchergebnissen markiert. Mehr als 600 Millionen AMP sind laut Google weltweit bereits im Einsatz.

Ist die Technik in Ordnung, geht es an den Seitenaufbau. Das A und O ist hierbei die Optimierung der Landingpages. Je granularer die Keywords mit eigenen Seiten abgedeckt werden, desto höher ist die Wahrscheinlichkeit fĂŒr bessere Rankings: Gibt es in einem Online-Shop fĂŒr Mode beispielsweise eine Unterseite fĂŒr „rote Kleider“, so kommt diese leichter fĂŒr dieses Keyword in die Top Ten als eine allgemeine Kategorieseite fĂŒr „Kleider“. Die SEO-Experten von der Online Solutions Group GmbH haben sogar ein eigenes Tool entwickelt, das die Erstellung von Landingpages nach diesem Prinzip erleichtert.

24.6 Optimierung von Seitenaufbau und Seitentexten

Die Internetnutzer sind nicht mehr so „scrollfaul“ wie noch vor einigen Jahren angenommen. Auch lĂ€ngere Seiten werden inzwischen durchaus bis zum Schluss in Augenschein genommen – vorausgesetzt, sie bieten ein ansprechendes Design und interessante Inhalte.

Die wichtigsten Bestandteile sollten aber dennoch immer „above the fold“ angezeigt werden, also in dem Fenster, das den Nutzer begrĂŒĂŸt, wenn er auf die Seite kommt. Buttons mit einem Call-to-Action, wichtige Produktbeschreibungen und Bilder sollte der User zu sehen bekommen, ohne das Scroll-Rad betĂ€tigen zu mĂŒssen. Außerdem muss auf den ersten Blick erkennbar sein, worum es auf der Seite geht und was den Nutzer hier erwartet.

Design und Inhalt mĂŒssen hier immer Hand in Hand gehen. Eine Headergrafik, die den ganzen Bildschirm in Anspruch nimmt, mag genial aussehen. Wenn der Kunde aber nicht weiß, ob er gerade in einem Online Shop oder auf einem Blog gelandet ist, steigt die Wahrscheinlichkeit eines frĂŒhen Absprungs.

24.6.1 Optimierung von Seitentexten

Google liebt Text. Je mehr, desto besser. Wurden bis vor kurzem noch 300 Wörter als Minimum fĂŒr einen Seitentext genannt, so sollten gute Webseitentexte mittlerweile mindestens 600 Wörter lang sein. Kategoriebeschreibungen vom 1000 und mehr Wörtern sind aber lĂ€ngst keine Seltenheit mehr. Und es stellt sich heraus: Auch die Nutzer lieben Texte. Allerdings nur, wenn sie informativ und unterhaltsam sind. Die Grenzen zwischen Ratgeber-Artikel und Produktbeschreibung verschwimmen zunehmend. Die Kunden wollen nicht mehr nur einfach wissen: Was kann das Produkt? Sondern vor allem: Was kann ich damit machen?

Texte mĂŒssen also nicht nur lang sein – sie mĂŒssen auch einen klaren Mehrwert bieten. Die Keyword-Optimierung tritt gegenĂŒber den Inhalten in den Hintergrund. NatĂŒrlich mĂŒssen die Fokus-Keywords dennoch im Text abgedeckt sein, die Keyword-Dichte nimmt aber deutlich ab. Umso wichtiger werden gut gepflegte, aussagekrĂ€ftige Metadaten, die den Suchbegriff beinhalten. Sie ĂŒbernehmen die Rolle eines Teasers, wecken Interesse und locken die Nutzer auf die Seite.

Es gibt allerdings keine allgemeingĂŒltige Lösung – denn die Nutzerintention steht stĂ€rker denn je im Mittelpunkt. Bei der Seitengestaltung muss daher immer die Frage im Vordergrund stehen: Was erwarten die Nutzer? Je nach Intention können TextlĂ€nge und Gestaltung variieren, um optimale Ergebnisse zu erzielen. Eine Nutzerin, die beispielsweise nach einer Frisur fĂŒr den Besuch einer Hochzeit sucht, wĂŒnscht sich vermutlich eher eine detaillierte Bild- oder Video-Anleitung mit eher wenig Text. Eine Nutzerin auf der Suche nach einem Kleid fĂŒr das Event, möchte voraussichtlich auf einer ĂŒbersichtlichen Produktseite landen, auf der Text eine untergeordnete Rolle spielt. Eine Design-Studentin, die sich mit der historischen Entwicklung der Brautmode auseinandersetzt, braucht dagegen einen tiefgehenden, sehr informativen und langen Text. Diese unterschiedlichen BedĂŒrfnisse sind Google bewusst und sie werden immer stĂ€rker in den Rankings berĂŒcksichtigt. Die Suchmaschinenoptimierung (SEO) muss in Zukunft also deutlich flexibler und individueller gestaltet werden als bisher.

Ein wichtiges Tool bei der Suche nach der richtigen Keyword-Dichte ist die WDF*IDF-Analyse. Sie wertet Texte mit Blick auf die Relevanz des Inhalts fĂŒr ein bestimmtes Keyword aus. WDF steht dabei fĂŒr „within document frequency“ und untersucht, wie oft ein Begriff im Text vorkommt. IDF steht fĂŒr „inverse document frequency“ und untersucht die HĂ€ufigkeit im Vergleich zu anderen Texten, zum Beispiel den Seitentexten der Konkurrenz. WDF*IDF ermittelt also die Gewichtung eines Begriffs anstatt nur die reine Dichte zu analysieren.

24.6.2 Gestaltung von Texten

Weil lange Texte alleine nicht nur unschön aussehen, sondern auch schwer zu lesen sind, spielt die Textgestaltung ebenfalls eine wichtige Rolle. Fließtext muss gut strukturiert werden, in sinnvolle Abschnitte untergliedert und mit Bildern oder Videos aufgelockert werden. AufzĂ€hlungen und Info-KĂ€sten sorgen zusĂ€tzlich fĂŒr ein besseres Textbild.

Schließlich ist eine sinnvolle interne Verlinkung entscheidend, damit sich sowohl die Suchmaschinen-Crawler als auch die Nutzer auf der Website zurecht finden. Eine Seite ohne Links ist wie eine Sackgasse. Darum sollten alle Seitentexte nach Möglichkeit auf verwandte Kategorie-Seiten oder Blogtexte verweisen. Das sorgt nicht nur fĂŒr mehr Überblick, sondern stĂ€rkt außerdem die angelinkten Seiten.

24.7 Wie wichtig sind Links im modernen SEO?

Der Grundgedanke ist einfach: Je hĂ€ufiger eine Seite von anderen Webseiten verlinkt wird, desto besser wird sie von Google bewertet. Die Suchmaschine sieht den externen Link quasi als eine Empfehlung, die auf die Relevanz der Seite hindeutet. Daran hat sich bis heute nichts geĂ€ndert. Nach wie vor zĂ€hlen Links zu den Top Drei Bewertungskriterien im Google Algorithmus. Dies bestĂ€tigte sogar Google-Sprecher Andrey Lippatsev selbst. Auf die Frage nach den beiden wichtigsten Kriterien neben RankBrain, Googles kĂŒnstlicher Intelligenz auf Basis von Machine-Learning-Technologie, erklĂ€rte er: „I can tell you what they are. It’s content and links going into your site.“

Die US-Beratungsagentur Stone Temple Consulting untersuchte 2016 in einer großangelegten Studie die Korrelation zwischen eingehenden Links und Rankings und bestĂ€tigte diese Aussage. Es wurden jeweils die Top 50 Ergebnisse auf 6.000 unterschiedlichen Suchergebnisseiten untersucht. Gut platzierte Seiten hatten auffĂ€llig hĂ€ufig auch viele eingehende Links. Die Experten kamen zu dem Schluss, dass ein Zusammenhang zwischen guter Platzierung und Anzahl der Links tatsĂ€chlich sehr wahrscheinlich ist.

Doch Google hat dazu gelernt: Nicht mehr die Masse der Links ist entscheidend, sondern die QualitĂ€t der Seiten, die auf eine Website verweisen. Wer also nach altem Muster auf reine Linkschleudern oder qualitativ minderwertige Seiten setzt, der erlebt aktuell eine böse Überraschung. Mit dem neuen Update Penguin 4.0 reagiert Google nun besser auf Änderungen in diesem Bereich: Wer sein Linkprofil bereinigt und sich um Links aus hochwertigen Quellen bemĂŒht, der sieht schneller Erfolge als zuvor.

Wurde eine Seite von Google abgestraft oder hat massiv an Sichtbarkeit verloren, so lohnt es sich also, das Linkprofil zu ĂŒberprĂŒfen. Eine „DTOX“-Analyse verrĂ€t, welche Linkquellen möglicherweise schĂ€dlich sein könnten. Solche Links sollten abgebaut oder ĂŒber das Disavow-Tool von Google unschĂ€dlich gemacht werden.

Positive Links dagegen sind Links auf starken Seiten, zum Beispiel in zielgruppenrelevanten Foren, wenn hilfreiche Blog-BeitrĂ€ge oder Produktempfehlungen verlinkt werden. Auch GastbetrĂ€ge, zum Beispiel in themenverwandten Blogs fĂŒhren zu wertvollen Links. Doch auch hier ist Google möglichen Tricksern auf den Fersen: Bezahlte BeitrĂ€ge mit reiner Werbefunktion sollen die Suchergebnisse nicht verfĂ€lschen. Solche Artikel mĂŒssen daher als Werbung gekennzeichnet und die Links auf „nofollow“ gesetzt werden, was ihren Wert fĂŒr SEO (Suchmaschinenoptimierung) mindert. Zwar bleiben auch solche Maßnahmen Teil einer ganzheitlichen SEO-Strategie. Sie mĂŒssen aber durch moderne Lösungen ergĂ€nzt werden. Die Zukunft gehört dem Content Marketing, also dem gezielten Verbreiten hochwertiger, viraler Inhalte. Nur wer Inhalte erstellt, die von Zielgruppe und Influencern freiwillig geteilt werden, hat langfristig eine Chance. Wichtig sind dabei stets die grĂ¶ĂŸtmögliche Transparenz und ein guter Überblick ĂŒber die bestehenden Links.

24.8 Starker Content ist Pflicht

Der Weg zu starken organischen Links geht ĂŒber hochwertigen Content. Wer es schafft, dass seine Inhalte im Web freiwillig verbreitet werden und dass andere Blogs oder Seitenbetreiber ĂŒber seine Services berichten, der profitiert nicht nur von einem höheren Bekanntheitsgrad, sonders stĂ€rkt auch die Sichtbarkeit seiner Seite.

Es reicht in der Google Suchmaschinenoptimierung (SEO) also nicht mehr aus, die Website mit guten Kategorietexten zu fĂŒllen. Es mĂŒssen weitere Content-Maßnahmen getroffen werden. Beispiele hierfĂŒr sind eigene Blogs oder Ratgeber mit fundierten, umfangreichen Inhalten. Eine immer grĂ¶ĂŸere Rolle spielt außerdem der User Generated Content, also BeitrĂ€ge die Nutzer und Kunden liefern – zum Beispiel in Form von Produktrezensionen auf der Seite, Kommentaren oder Kundenstimmen.

Egal, welche Content-Formen auf einer Seite abgedeckt werden, es gilt: QualitĂ€t ist entscheidend – aber nur erfolgreicher Content ist wirklich guter Content. Wie aber misst man den Erfolg von Inhalten auf einer Website? Eine aussagekrĂ€ftige GrĂ¶ĂŸe ist beispielsweise die Absprungquote. Verlassen viele Nutzer die Seite sofort wieder, deutet dies auf uninteressanten oder schlecht prĂ€sentierten Content hin. Aber auch andere GrĂ¶ĂŸen geben Aufschluss darĂŒber, wie erfolgreich der Inhalt einer Seite ist:

  • Wie lange bleiben die Nutzer auf einer Seite?
  • Scrollen sie bis zum Seitenende?
  • Folgen sie einem Klickpfad bis zum Schluss, z.B. in einer Bilderstrecke?
  • Klicken sie auf interne Links?
  • Gibt es eine hohe Conversion Rate?

All diese sogenannten User Signals verraten, ob der Content einer Seite die Nutzer fasziniert und sie gegebenenfalls sogar zum Kauf oder einer Anfrage animiert.

24.8.1 Welche Rolle spielt Content Marketing?

Content Marketing hat mehrere Aufgaben: GrundsĂ€tzlich geht es darum, eigene Inhalte auf möglichst vielen anderen Seiten zu verbreiten. Dadurch werden zum einen hochwertige organische Links aufgebaut. Dies geschieht entweder automatisch, weil andere Seitenbetreiber oder Blogger bestimmte BeitrĂ€ge teilen, oder es wird aktiv unterstĂŒtzt, indem interessante Inhalte möglichen Partnern zur Veröffentlichung angeboten werden.

Zudem ĂŒbernimmt Content Marketing im Web die Rolle der klassischen PR. Wie eine Pressemeldung werden Artikel, Videos und andere Inhalte im Content Marketing an Medien, Blogger und Influencer verteilt. Dadurch steigt die Markenbekanntheit und die Zielgruppe wird beispielsweise ĂŒber Neuigkeiten informiert. Zudem helfen hochwertige Inhalte auf starken Partnerseiten einer Marke dabei, ihre Expertise zu untermauern und so das Vertrauen der Kunden zu gewinnen und bestehende Kunden stĂ€rker an sich zu binden. Content Marketing sollte darum nicht nur mit SEO (Suchmaschinenoptimierung) und SEM sondern auch mit dem klassischen Marketing fein abgestimmt werden, sodass eine ganzheitliche Kommunikation auf allen KanĂ€len entsteht – online wie offline.

Dabei darf auch der bereits erwĂ€hnte Rich Content nicht außer Acht gelassen werden. Videos, interaktive Grafiken und Gamification-AnsĂ€tze erhöhen die Wahrscheinlichkeit, dass Inhalte verbreitet werden und sollten als ErgĂ€nzung zu hochwertigen Texten immer in Betracht gezogen werden.

24.9 Monitoring – aber richtig!

Man darf sich nicht auf seinen Lorbeeren ausruhen. Diese Weisheit gilt in vielen Disziplinen der GeschĂ€ftswelt. Im SEO ist sie aber ganz besonders wichtig. Eine Seite die heute noch gut rankt, kann schon morgen auf die hinteren RĂ€nge verwiesen werden. Modernes SEO heißt vor allem auch, dass man stĂ€ndig die aktuellen Trends im Auge behĂ€lt, die eigenen Maßnahmen ĂŒberprĂŒft und gegebenenfalls nachbessert. Auf Änderungen wie beispielsweise das Penguin 4.0-Update muss schnell und nachhaltig reagiert werden, um dauerhaft erfolgreich zu bleiben.

Es gibt zahlreiche Tools, die moderne SEO (Suchmaschinenoptimierung) Manager in ihrer Arbeit unterstĂŒtzen – und stĂ€ndig kommen neue hinzu. Welche fĂŒr eine bestimmte Seite besonders nĂŒtzlich sind, hĂ€ngt unter anderem von der Ausrichtung der Seite und deren Zielsetzung ab. Ist etwa eine Seite auch in Social Media besonders aktiv, so sollten zusĂ€tzlich zu den klassischen Tools noch spezialisierte Services zum Monitoring der Social Media AktivitĂ€ten in Betracht gezogen werden.

25.9.1 Tools zur Web Analyse

Web Analyse Tools wie etwa Google Analytics und die Google Webmaster Tools (Google Search Console) geben Aufschluss ĂŒber Besucherzahlen, Traffic-Quellen und Conversions. Hier sieht man zum Beispiel, welches Keyword besonders viele Besucher auf die Seite gebracht hat, oder ob ein Link in einem Gastbeitrag die Visits oder gar den Umsatz steigern konnte.

Unter den kostenpflichtigen Tools ist Omniture von Adobe eines der bekanntesten Beispiele. Welches Tool benötigt wird, hÀngt von den Anforderungen ab und vom Umfang der benötigten Informationen. Bei der Auswahl helfen folgende Fragen:

  • Welche Inhalte sollen getrackt werden?
  • Benötige ich die genauen Klickpfade?
  • Soll der gesamte Funnel angezeigt werden?

Wichtig beim Einsatz von Web Analyse Tools ist der Abgleich mit dem Datenschutz und ein Hinweis auf die Nutzung in den Datenschutzbestimmungen. Die Nutzer mĂŒssen wissen, dass und wofĂŒr ihre Daten erfasst werden. Die Datenschutzregelungen sind in Deutschland sehr streng, VerstĂ¶ĂŸe können teuer werden.

24.9.2 Tools zur Messung der Sichtbarkeit und Rankings

Unverzichtbar sind außerdem die Tools zur Messung der Sichtbarkeit und Rankings. Nur wer die Performance seiner Seite stĂ€ndig im Blick hat, der kann langfristig erfolgreiche Suchmaschinenoptimierung (SEO) betreiben. Je nachdem, welche Maßnahmen ergriffen wurden, sind erste Erfolge nach etwa drei bis sechs Monaten messbar. FĂŒr gewöhnlich gilt: Zuerst werden Rankings erzielt, dann steigt die Sichtbarkeit. Mit zunehmender Sichtbarkeit zieht der Traffic an und schließlich steigen auch die UmsĂ€tze.

Über SEO-Tools wie z.B. Sistrix und XOVI kann zum einen die Sichtbarkeit einer Seite beobachtet werden, zum anderen werden hier die aktuellen Rankings gelistet. Besonders spannend: Über Sistrix können die eigenen Rankings mit denen der Konkurrenz abgeglichen werden und es wird deutlich, an welchen Stellen nachgebessert werden muss.

Tools wie der KeywordMonitor zeigen die Entwicklung vorgegebener Keywords im Verlauf an. Sie eignen sich besonders gut, um die Performance der Keywords zu ermitteln, die in Rahmen der Keyword-Analyse als besonders relevant eingeschĂ€tzt wurden. Zudem lĂ€sst sich hier die Seitenoptimierung ĂŒberprĂŒfen: Wechseln sich zum Beispiel mehrere Seiten mit den Rankings fĂŒr dasselbe Keyword ab, so ist dies ein Hinweis darauf, dass die Seiten nicht eindeutig genug auf ein Keyword optimiert sind. Das schwĂ€cht die Rankings fĂŒr alle betroffenen Seiten. Durch Nachbesserungen an den Seitentexten und der internen Verlinkung kann eine klare Zielseite fĂŒr das gewĂŒnschte Keyword festgelegt werden.

Schön ist es, wenn alle FĂ€den in einer Hand zusammen laufen. Die logische Weiterentwicklung dazu, sich alle Informationen aus verschiedenen Quellen zusammenzusuchen ist es, alle wichtigen Daten gebĂŒndelt  zur Hand zu haben – und das am besten auf allen EndgerĂ€ten, im Web und sogar als App. Wer ĂŒber ein eigenes Data Warehouse verfĂŒgt, ist im Informationsfluss immer einen Schritt voraus. Die Online Solutions Group GmbH hat mit ihrer OSG Performance Suite ein Tool entwickelt, in dem die Kunden alle relevanten Daten aus dem unterschiedlichen SEO-Tools auf einen Blick versammelt finden. Rankings, Sichtbarkeitsverlauf und Ladezeiten werden ĂŒbersichtlich prĂ€sentiert und bieten grĂ¶ĂŸtmögliche Transparenz ĂŒber den Erfolg der vorgenommenen Suchmaschinenoptimierung.

Und wie ist Ihr Unternehmen aufgestellt in Sachen Online Marketing? Finden Sie es jetzt heraus – mit einem kostenlosen Audit!

Tipp

Wie Sie eine gute SEO Agentur finden und auf welche Kriterien Sie besonders achten sollten, lesen Sie in unserer ausfĂŒhrlichen SEO Agentur Auswahl Checkliste.

25. Die 10 wichtigsten SEO-Regeln

Das Erstellen einer Website ist heute so einfach wie noch nie. UnzĂ€hlige Tools ermöglichen es uns innerhalb von wenigen Minuten eine WebprĂ€senz samt eigenem Shop zu erstellen. Und genau da ist das Problem: Es gibt zu allen Themen, Produkten und Dienstleistungen zahllose Seiten. In diesem riesigen Pool an Angebot und Information, scheint es unmöglich gesehen zu werden. Aus diesem Grund beschĂ€ftigen sich (fast) alle frĂŒher oder spĂ€ter mit Suchmaschinenoptimierung, kurz SEO. Doch scheint es fĂŒr Laien oft wie ein Buch mit sieben Siegeln. In diesem Text werden wir dir zeigen, dass es nur 10 einfache SEO Regeln zu befolgen gibt, um ganz oben zu stehen. Vorneweg gesagt gilt: Gesehen wird nicht der, der am lautesten schreit, sondern der mit dem besten Inhalt!

25.1 SEO Regel Nr. 1: Kreiere holistischen Content mit Mehrwert fĂŒr den User

Und da sind wir schon beim Thema Inhalte. Die erste SEO Regel beschĂ€ftigt sich mit einem Satz der den meisten wohl schon zu den Ohren raus kommt ist: “Content ist King!”. Der Ausdruck hat zwar schon einen Bart, ist jedoch noch immer topaktuell. Inhalte bzw. Content ist das was der User auf deiner Seite sieht, aber auch das was Google auf deiner Seite crawlt. Und obwohl es immer noch eine text-basierte Suchmaschine ist, kann sie mittlerweile bewerten ob es sich um eine Seite mit Mehrwert fĂŒr den Nutzer handelt. Aber nicht nur Google ist anspruchsvoll mit dem Inhalt deiner Seite, auch der Nutzer möchte neben einer einfach Bedienbarkeit auch Inhalte die gefallen, beschĂ€ftigen und den gewĂŒnschten Mehrwert bieten. Wie sieht so ein Text aus? Er sollte:

  • besagten Mehrwert bringen
  • strukturiert sein
  • passende Keywords verwenden
  • Interesse des Lesers wecken

Die Liste kann an diesem Punkt beliebig erweitert werden. Das Wichtigste ist, wie die Überschrift dieser SEO Regeln schon erahnen lĂ€sst, jedoch nicht das Interesse und den User aus den Augen zu verlieren! Also setze dich an deine Texte, ĂŒberarbeite und verlĂ€ngere sie, um wichtige Aspekte und Punkte die du bisher noch nicht berĂŒcksichtigt hast. Nur so bleibst du relevant und bist deinem Ziel auf dem Weg zur Nummer eins wieder ein Schritt nĂ€her.

Tipp

Wie du Texte mit Mehrwert erstellst, erklĂ€ren wir dir Schritt fĂŒr Schritt in unserem Ratgeber “Erfolgreich mit Content Marketing: Wie gute Texte heute aussehen mĂŒssen“.

25.2 SEO Regel Nr. 2: Aufbau vertrauenswĂŒrdiger Backlinks

Ein nicht unumstrittenes Thema im Online Marketing sind Backlinks. Noch vor wenigen Jahren stand die QuantitĂ€t vor der QualitĂ€t, je mehr Links auf die Seite verwiesen, desto besser. Heute sieht das ganze etwas anders aus. Wer dubiosen Angeboten wie “100 Links fĂŒr 100€” vertraut, riskiert nicht nur, dass Spamseiten auf einen verweisen, nein auch das Risiko einer Abstrafung steigt gewaltig. So sollte dein erster Schritt vor dem Linkaufbau sein, deine aktuellen Backlinks zu ĂŒberprĂŒfen. FĂŒr so ein sogenanntes Link Detox stehen wir dir gerne mit Rat und Tat zur Seite!

Backlink Verlauf

© OSG Performance Suite

Du hast dich von all den schlechten Links befreit und bist bereit fĂŒr frischen Linkjuice? (Was das schon wieder ist erfĂ€hrst du hier) Dann ist es Zeit fĂŒr die zweite SEO (Suchmaschinenoptimierung) Regel! Wie im echten Leben ist es wichtig, dass die Richtigen auf dich verweisen. Niemand möchte eine Empfehlung von jemanden erhalten, dem man nicht vertraut. Selbiges gilt auch fĂŒr die Backlinks. Mit einer sorgfĂ€ltigen OnPage Optimierung, wie zum Beispiel mit holistischem Content, guten Meta Tags (dazu spĂ€ter mehr) und kurzen Ladezeiten kommen die Backlinks fast ganz von alleine. Und fĂŒr den Anfang lohnt es sich neben der Optimierung der eignen Seite, auch die Kooperationen mit anderen WebprĂ€senzen. Neben Gastartikeln sind auch Influencer teil der OffPage Optimierung und aus dem Online Marketing nicht mehr wegzudenken.

25.3 SEO Regel Nr. 3: Optimiere deine Ladezeit

Wer Anfang der Jahrtausendwende eine Website laden wollte, musste viel Geduld mitbringen. Heute stehen Modems höchstens noch in Vitrinen als Relikte lĂ€ngst vergangener Tage und die meisten Internetnutzer werden sich an das Pipsen und Pfeifen bei einem Verbindungsaufbau wohl nicht einmal mehr erinnern. Heute geht es bei der Ladezeit mehr denn je um Geschwindigkeit. Laut den Google Analytics Trends 2018 sind die Nutzer so ungeduldig wie noch nie. Aber auch Google selbst hat es gerne wenn es schnell geht und das nicht nur an deinem Rechner. WĂ€hrend der sogenannte PageSpeed seit April 2010 ein offizieller Rankingfaktor ist, wird auch die Ladegeschwindigkeit auf mobilen EndgerĂ€ten ab Juni 2018 ein Teil des Bewertungssystems. Und aus diesem Grund ist die Ladezeit auch die dritte unserer SEO Regeln. Aber bevor du nun wild das Optimieren beginnst solltest du erst einmal die aktuelle Geschwindigkeit deiner Seite messen. Hierzu gibt es eine Vielzahl von Tools. Einige sind davon auch kostenfrei. Das bekannteste stellt Google mit dem Google PageSpeed Insights selbst.  Auf TestMySite kanndu die Ladezeiten deiner mobilen Version testen und mit den Wettbewerbern vergleichen. Aber auch mit dem kostenlosen SEO Check der OSG kannst du deine Ladegeschwindigkeit prĂŒfen!

Ist die Geschwindigkeit geprĂŒft, kann mit der Optimierung deiner Ladezeit begonnen werden. Auch wenn deine Seite schon schnell lĂ€dt, ein bisschen was geht noch immer, und warum unnötig Potential verschenken? Dein Wettbewerb schlĂ€ft nicht! Die wichtigsten Stellschrauben an denen du drehen kannst sind:

  • Komprimierung der Ressourcen mit „gzip“ oder „deflate“
  • Nutzen des Browser-Cachings
  • Reduzierung des JavaScript- und CSS-Codes
  • Formatierung und Komprimierung von Bildern
Screenshot aus PageSpeed

© Screenshot PageSpeed Beispiel

Mit der Ladezeit und der Ladezeitoptimierung hat sich Jörg Niethammer nÀher beschÀftigt und einen spannenden Artikel in unserm OSG Blog veröffentlicht! Lies dich hier am besten ein und deine Website wird im nu schnell wie der Blitz.

25.4 SEO Regel Nr. 4: Technik muss stimmen – Fehler suchen und analysieren

Eine Website die an jeder Ecke einen Fehler ausspuckt nutzt niemand gerne und auch der Google Crawler findet das eher suboptimal. SEO Regel Nummer Vier soll dich daran erinnern, deine Inhalte sowohl fĂŒr den User, als auch fĂŒr die Suchmaschinen erreichbar zu machen. Sorge fĂŒr eine flache und saubere Informationsarchitektur innerhalb deiner Seite. Kein Inhalt sollte mehr als 3-4 Klicks brauchen um aufgerufen zu werden. Du vergisst nur einen Klick und schon ist deine Seite nicht mehr im Index. Ein noindex kann oft nĂŒtzlich sein, ist er ungewollt ist es ein Fehler, der leicht vermeidbar und gĂŒnstig zu beheben ist. Um zu prĂŒfen ob deine Seite indexiert ist, kannst du die “Site-Abfrage”(site:domain.de) in der Google Suche nutzen.

Neben der Indexierung kann es auch zu technischen Fehlern auf deiner Seite kommen. Eine “404- Seite nicht gefunden” Fehlermeldung hatte wohl schon jeder einmal von uns auf seinem Bildschirm. Das nervt nicht nur dich als User, auch der Suchmaschinenbot ist davon nur wenig begeistert. Zur Identifizierung solcher 404 Seiten gibt es verschiedene Tools die du nutzen kannst. Nutze die Google Search Console oder auch den kostenlose SEO-Check der OSG, um sie ausfindig zu machen. Wie du genau mit der Fehlermeldung umgehen solltest erfĂ€hrst du in diesem Beitrag. Generell gilt auch hier, suche nach Fehlern und analysiere diese grĂŒndlich! Fehlerhafte Seiten sind nicht nur Ă€rgerlich, sondern schaden auch deinem Ranking. Also behalte SEO (Suchmaschinenoptimierung) Regeln Nummer Vier immer im Kopf und checke deine Technik! Falls der User sich doch einmal vertippt, auf einer fehlerhaften Seite landet, sollte diese entsprechend userfreundlich aufbereitet werden.

Beispiel einer userfreundlichen 404-Seite von Zalando

© 404-Seite von Zalando

 

25.5 SEO Regel Nr. 5: Verfasse relevante Meta Titles und Descriptions

Auch Meta Titels und Descriptions zĂ€hlen zu den mehr als 200 SEO-Rankingfaktoren und damit auch in die Top Ten unserer SEO Regeln, außerdem sind sie im Prinzip leicht zu pflegen. Du musst es eben einfach machen! Besonders der Title Tag sollte oberste PrioritĂ€t bei der Optimierung deiner Seite haben. Dieser wird sowohl im Browser als auch in der SERP angezeigt und sogar im Quelltext taucht dieser auf. Er sollte nicht mehr als 70 Zeichen haben und bei jeder URL individuell sein. Das Keyword auf welches deine Seite optimiert ist steht im besten Fall ganz vorne im Title. Auch sollte der Title den User dazu animieren auf deine Seite zu klicken. Um zu sehen wie am Ende dein Meta Title angezeigt wird kannst du beispielsweise den SISTRIX Snippet Generator nutzen!

Nicht direkt fĂŒr den Nutzer auf deiner Seite sichtbar, aber fĂŒr die Sucherergebnisse unabdingbar sind die Meta Descriptions. Auch diese lassen sich leicht pflegen und sind leicht zu optimieren. Hierbei gelten ein paar einfach Faustregeln:

  • Es sollten nicht weniger als 120 Zeichen sein und nicht mehr als 220 Zeichen. Sind es zu viele, dann schneidet sie Google einfach ab.
  • Ähnlich wie beim Meta Title, sollte das Keyword recht weit am Anfang stehen.
  • Die Description solltest du werblich und klar formulieren. Du hast nur wenige Zeichen zu VerfĂŒgung, nutze sie sinnvoll!
  • Es lassen sich auch Sonderzeichen wie Pfeile, Herzen oder Ă€hnliches nutzen. Gehe damit aber sparsam um!

Auch hier kannst du den SISTRIX Snippet Generator nutzen um deine Arbeit zu ĂŒberprĂŒfen. So lĂ€sst sich diese SEO Regel ganz einfach Umsetzen.

25.6 SEO Regel Nr. 6: Verwende gut lesbare und aussagekrÀftige URLs

Oft und gerne vergessen bzw. vernachlĂ€ssigt ist die Verwendung von sogenannten “sprechenden” URLs. Diese bestehen statt aus kryptischen Zeichenfolgen und IDs aus lesbaren Worten und beinhalten im Idealfall auch dein Keyword! Eine gut lesbare URL erhöht deine Klickrate, da der User schon sieht was ihn auf der Seite erwarten wird. Um nicht in den Suchmaschinen abgeschnitten zu werden sollte deine URL von den möglichen 200 Zeichen nicht mehr als 74 verwenden. FĂŒr ein erfolgreiche Optimierung deiner URLs solltest du folgende Regeln beachten:

  • Nutze deine Keywörter
  • Lass die Finger von FĂŒllwörtern
  • Verzichte auf Sonderzeichen
  • Trenne die Worte mit einem Minuszeichen
  • Aber am wichtigsten: Keep it short and simple!

25.7 SEO Regel Nr. 7: Keywords – auch fĂŒr Beitragsbilder

Deine Keywords sollten nicht nur fĂŒr deine Texte bewusst gewĂ€hlt werden, auch deine Bilder auf deiner Website sollten dahingehend optimiert werden. So kannst du auch ĂŒber die Bildersuche der Suchmaschinen gefunden werden. Wie genau du die siebte SEO (Suchmaschinenoptimierung) Regel umsetzten kannst, erfĂ€hrst du in unserem Leitfaden zur Bildoptimierung. Dabei ist es wichtig, den Nutzer und seine Suchintention zu verstehen, nur so findest du das richtige Keyword. Es ist dabei hilfreich einen Blick auf deine Konkurrenz zu werfen und zu sehen mit welchen Keywords diese ranken. Schau dir dafĂŒr die ersten 10 Suchergebnisse an und wĂ€ge ab wie schwierig es ist höher als der Rest in der SERP zu stehen. Um weitere Ideen fĂŒr Keywords zu finden rĂ€t es sich, einen Keyword Planner zu nutzen. Bei der Auswahl der Keywords ist es ratsam lieber ein kleines Keyword zu nutzen mit dem man auf Seite 1 ranken kann, als ein großes zu verwenden und auf Seite 2 oder schlechter zu stehen. Es ist auch einfacher sich bei der Auswahl auf seine Kompetenzen zu besinnen, so lassen sich leichter Keywords finden und Inhalte kreieren. Da sagt sowohl der Nutzer als auch der Crawler danke!

25.8 SEO Regel Nr. 8: Sei responsive – sowohl im Design als auch auf Fragen der User

Wie bei den Ladenzeiten schon erwĂ€hnt, nimmt der Fokus auf die mobilen EndgerĂ€te zu. Google teilte den Schritt zum “Mobile First Index” mit und möchte so nicht mehr zwischen Desktop-Index und Mobile-Index unterscheiden. Es ist also ratsam, dass du deine Website fĂŒr die mobile Darstellung fit machst. Durch ein sich selbst-anpassendes Design erhöht sich die Verweildauer der User auf deiner Seite und somit auch die Bounce Rate. Als Grundregeln fĂŒr die mobile Bedienbarkeit gelten:

  • (Überraschung) Schnelle Ladezeit
  • Erkennbare SchriftgrĂ¶ĂŸe
  • Leichte Bedienbarkeit aka. “Wurstfinger”-Bedienbarkeit

Ist das umgesetzt, kommt man schon fast zum letzten unserer SEO Regeln!

25.9 SEO Regel Nr. 9: Nutze soziale Medien fĂŒr deine Vorteile

Jetzt hast du richtig guten Content zu den perfekten Keywords geschrieben, eine rasend schnelle Seite die auf allen EndgerĂ€ten hervorragend benutzbar ist, eine Menge Backlinks gesammelt, super tolle Meta Tags und Descriptions und auch deine URLs sind optimiert. Nun ist die neunte SEO (Suchmaschinenoptimierung) Regel an der Reihe: Lass die Leute von deiner ĂŒberragenden Seite wissen! Auch wenn es ein bisschen Überwindung kosten kann, fordere die Leute zum teilen deiner Inhalte auf! DafĂŒr solltest du im Vorfeld dafĂŒr gesorgt haben, dass das so einfach wie möglich passiert. Mit der Implementierung von Share Buttons geht das am leichtesten und du steigerst deine Reichweite. FĂŒr die ideale Darstellung deiner Inhalte in den sozialen Medien solltest du deine Open Graph Informationen nutzen. So hast du im Handumdrehen eine neue Traffic-Quelle und mit etwas Muse und GlĂŒck auch eine treue Community!

25.10 SEO Regel Nr. 10: Laufend PrĂŒfen

Zusammenfassend steht am Ende der SEO Regeln Nummer Zehn, die laufende PrĂŒfung. So wichtig alle vorangegangenen SEO Regeln auch sind, nur die stetige Umsetzung und Aktualisierung gewĂ€hrleistet deinen nachhaltigen SEO (Suchmaschinenoptimierung) Erfolg. Guter holistischer Content sollte regelmĂ€ĂŸig ĂŒberprĂŒft und aktualisiert werden. SEO Regel Zwei, die Backlinks, ist auch eine Aufgabe die ohne regelmĂ€ĂŸige ÜberprĂŒfung nicht auskommt. Selbiges gilt natĂŒrlich fĂŒr die Ladezeit und die Technik. Nur so kannst du deinen ganz oben in der SERP halten, denn auch deine Konkurrenten können lesen und werden optimieren! Mit unserem kostenlosen SEO-Check kannst du ganz einfach selbst prĂŒfen, wie es um deine Website steht. In wenigen Sekunden bekommst du alle Informationen und Tipps fĂŒr dein. GeprĂŒft werden 20 Unterseiten und SEO-kritische PrĂŒfpunkte sind rot hervorgehoben – so siehst du schnell, welche der SEO Regeln noch nicht beherzigt wird.

Gerne unterstĂŒtzen wir dich bei der Umsetzung aller weiteren SEO Regeln. Aber ebenso wie deine Website solltest du dich selbst auch immer auf dem Laufenden halten, aus diesem Grund empfehle ich dir die LektĂŒre von SEO BĂŒchern. Tim Lagemann hat die besten in einem Blogartikel fĂŒr dich zusammengefasst! Bis dahin viel Spaß und Erfolg bei der Umsetzung der 10 SEO Regeln.

26. Case: Was passiert, wenn SEO AktivitÀten gestoppt werden

Wer heute eine InternetprĂ€senz betreibt, wird um das Thema Suchmaschinenoptimierung (SEO) nicht herumkommen. Im digitalen Zeitalter wird selbst die schönste Website keinen Erfolg haben, wenn sie von der Zielgruppe nicht gefunden wird. Es gibt viele Möglichkeiten Traffic fĂŒr die eigene InternetprĂ€senz zu generieren oder einzukaufen, zum Beispiel ĂŒber Adwords-Werbung und Affiliate. SEO ist mittel- bis langfristig jedoch der kosteneffizienteste Kanal, denn im Vergleich zu anderen Online Marketing KanĂ€len entstehen keine Klickkosten. Warum SEO (Suchmaschinenoptimierung) fĂŒr jede Website so wichtig ist, haben wir auf unserer SEO Agentur Seite zusammengefasst. Doch was passiert eigentlich, wenn man im SEO erfolgreich ist und die SEO-Maßnahmen stoppt? Den “Worst-Case” haben wir zusammengefasst.

26.1 Stark umkÀmpfte Finanzbranche

Bei dem Projekt geht es um einen Finanzvergleich. HierfĂŒr wurde eine InternetprĂ€senz auf Basis von WordPress erstellt und eine SEO-Strategie entwickelt. Aufgrund der hohen Klickkosten in Adwords in dieser Branche, lag der Fokus von Anfang an auf der Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung). Bei der Umsetzung der Website wurden technische SEO-Kriterien beachtet (Mobile-Friendly, saubere Struktur, schnelle Ladezeiten usw.). Anhand der besten Wettbewerber und eigenen Ideen wurde ein Konzept fĂŒr die Content-Optimierung und den Linkaufbau aufgestellt. Die Entwicklung wurde laufend ĂŒberwacht, besprochen und je nach Entwicklung angepasst, um langfristig beste Ergebnisse fĂŒr wichtige Keywords zu erzielen.

Das Projekt wurde im Juni 2016 gestartet. Eckdaten nach 1,5 Jahren Arbeit:

  • 215 Top10 Rankings
  • 5.558 Rankings Gesamt
  • 205 erstellte Texte
  • 76 hochwertige Backlinks

Durch die Erstellung der Texte unter BerĂŒcksichtigung von QualitĂ€tsmerkmalen fĂŒr Content ist die Anzahl der indexierten Seiten laufend gestiegen:

Anzahl indexierter Seiten

© Screenshot aus der OSG Performance Suite

Die Sichtbarkeit der Seite ist im Gegensatz zum Indexierungsstatus in den ersten Monaten nur langsam gestiegen. Da viele SEO-Maßnahmen erst nachwirken, konnte die Sichtbarkeit nach den ersten 6 Monaten dafĂŒr monatlich umso stĂ€rker wachsen. In der Grafik ist zu erkennen, dass zu Beginn mehr SEO-Maßnahmen (goldene Flags) umgesetzt worden sind, die Sichtbarkeit (blaue Linie) spĂ€ter jedoch stĂ€rker steigt:

OSG Sichtbarkeit Finanzprojekt

© Screenshot aus der OSG Performance Suite

Seit Anfang 2018 ist der Traffic ĂŒber Organic Search bereits um 23% gestiegen – und das obwohl, die grĂ¶ĂŸten Optimierungen und die meisten Texte bereits 2016 erbracht worden sind. Bei gleichbleibender Entwicklung und gleichem Invest könnte sich der SEO Traffic in den nĂ€chsten Monaten wie folgt entwickeln (lĂ€sst man Google Updates außer Acht und geht vom aktuellen Stand aus):

Traffic SEO Finanzprojekt

© Möglicher SEO Traffic (berechnet anhand Entwicklung, kann nicht garantiert werden)

Der Case zeigt bereits, dass SEO (Suchmaschinenoptimierung) ein Kanal ist, der nachlÀuft. Aber was passiert, wenn man alle AktivitÀten komplett stoppt? War die ganze bisherige Arbeit umsonst?

26.2 SEO gestoppt – und nun?

Ende Februar 2018 wurde die Arbeit fĂŒr das Projekt eingestellt. Um die Auswirkungen des SEO Stopps zu verstehen, muss die Sichtbarkeit ĂŒber einen lĂ€ngeren Zeitraum betrachtet werden. In der Grafik ist der Stopp rot markiert:

SEO Stopp Sichtbarkeit

© OSG Performance Suite

AuffÀllig ist, dass die Sichtbarkeit nach dem SEO Stopp zunÀchst weiter gestiegen ist und in den letzten Wochen wieder rapide gesunken ist. Nach insgesamt 4 Monaten (Ende Februar 2018 bis Anfang Juli 2018) ist die Sichtbarkeit jedoch weiterhin leicht höher als vor Einstellung der Arbeit.

In der nachfolgenden Grafik haben wir den Traffic ĂŒber SEO (Suchmaschinenoptimierung) mit den Sichtbarkeiten aus Sistrix und Xovi verglichen:

Sichtbarkeit vs SEO Traffic

© OSG Performance Suite

Der Traffic ĂŒber Organic Search nimmt seit Ende Juni leicht ab – jedoch nicht so stark wie die Sichtbarkeit. Der SEO Traffic liegt etwa auf dem gleichen Level wie kurz vor dem SEO Stopp.

Auf die Rankingverteilung gab es bisher keine negativen Auswirkungen. Die Anzahl der rankenden Keywords auf Seite 1 und 2 bei Google ist sogar gestiegen:

Rankingverteilung XOVI

© XOVI

Insgesamt gab es nach dem SEO Stopp innerhalb von vier Monaten keine gravierenden Verluste oder Gewinne – und das obwohl die Seite mit starken Wettbewerbern wie Check24 und Verivox konkurriert. Der Case steht jedoch nicht stellvertretend fĂŒr alle Projekte – ja nach Branche und Konkurrenzdruck können Verluste frĂŒher oder spĂ€ter eintreten. Je besser die Ausgangslage, desto höher die Wahrscheinlichkeit, dass sich das Einstellungen der SEO Leistungen erst Wochen oder Monate spĂ€ter bemerkbar macht. Nischenseiten, die eher unbekannte Keywords abdecken, können auch noch Jahre spĂ€ter gute Rankings erzielen. Langfristig sollte man im SEO jedoch nicht pausieren, wenn man vor hat sein Projekt auch kĂŒnftig profitabel zu vermarkten. Im oben genannten Case gab es zwar keine Verluste, allerdings kann auch nicht mehr von den Gewinnen (bessere Sichtbarkeit, mehr Rankings) profitiert werden, die zunĂ€chst angestiegen sind.

26.3 Anderer Case – Ă€hnliches Szenario

Auch bei einem weiteren Case gibt es ein Ă€hnliches Szenario. bei diesem Projekt wurde der Webauftritt einer lokalen Praxis optimiert. Nachdem die SEO (Suchmaschinenoptimierung) Maßnehmen im Herbst 2017 gestoppt worden sind, ist die Sichtbarkeit zunĂ€chst erst noch angestiegen, danach jedoch stetig gesunken:

Sistrix Sichtbarkeit negativ

© Sistrix

Content und Linkaufbau gehören neben einer ansprechenden Usability und sauberen Technik weiterhin zu den wichtigsten Rankingfaktoren. Dies wurde mehrmals von Google Mitarbeitern wie Andrey Lipattsev (2016) bestÀtigt:

“It’s content and links pointing to your site.”

Die Gewichtung der Rankingfaktoren kann je nach Suchanfrage und Branche variieren. Gemeinsamen haben alle Rankingkriterien jedoch, dass eine einmalige Optimierung oft nicht reicht. Google nimmt regelmĂ€ĂŸig Änderungen am Algorithmus vor, um den Usern die besten Ergebnisse in den SERPs anzuzeigen. Als Unternehmen hat Google selbst das Ziel profitabel zu arbeiten. Werden Usern Ergebnisse angezeigt, die nicht aktuell sind, springen diese irgendwann ab und nutzen andere Quellen zur Recherche. Aktuell hat Google auf nationaler Ebene und vielen weiteren LĂ€ndern eine klare Vormachtstellung und diese wird das Unternehmen auch in den nĂ€chsten Jahren weiter behaupten. Wer seine Seite nicht laufend optimiert – insbesondere auch im Linkaufbau und im Content – wird den AnsprĂŒchen von Google und dessen Nutzern nicht mehr gerecht. Dabei geht es nicht nur darum, stetig neue Links und Texte zu erstellen, sondern auch vorhandene Techniken und Inhalte anzupassen, zu aktualisieren und dem User gerecht zu werden.

Wer in der organischen Suche erfolgreich sein will, muss Suchmaschinenoptimierung laufend betreiben. Ein SEO (Suchmaschinenoptimierung) Stopp trifft vor allem kleinere Seiten stĂ€rker als bekannte Brands. Aber auch auf starke Seiten wirkt sich die Einstellung der SEO-Maßnahmen langfristig negativ aus. Bei einem großen Onlineshop wurden lange Zeit aktiv Backlinks aufgebaut und neue Inhalte erstellt. Suchmaschinenoptimierung wird auch weiter betrieben, allerdings wurde der aktive Linkaufbau gestoppt. Der Shop verfĂŒgt weiterhin ĂŒber viele Top Rankings, konnte die Sichtbarkeit und viele Rankings in den letzten Monaten jedoch nicht mehr ausbauen – nicht zuletzt, da auch der Wettbewerb stark zugenommen hat:

© Sistrix

Große Seiten und Big Player haben oft schon ein gutes Fundament aufgebaut, von dem sie Zerren können, wĂ€hrend Unternehmen, die erst mit SEO starten, sich erst einmal behaupten mĂŒssen. Bei dem nachfolgenden Beispiel wurde SEO erst eingefĂŒhrt. Hier wurden Anpassungen an der Verzeichnisstruktur und der Technik (Ladezeiten, Steuerung Crawling) vorgenommen und erste Texte optimiert. Nachdem sich die ersten Erfolge eingestellt haben, wurde die Maßnahmen gestoppt. Drei Monate spĂ€ter waren die ersten Rankingerfolge wieder zunichte und die Sichtbarkeit ist auf das Ausgangslevel gefallen:

Sistrixverlauf entwickelt sich negativ

© Sistrix

Je nach Ausgangslage fallen Sichtbarkeit, Rankings und Traffic nicht rapide, sondern mit einer Verzögerung von wenigen Wochen oder Monaten. Anders sieht es aus, wenn eine Webseite vom Netzt genommen wird oder nicht mehr erreichbar ist:

Sistrix Sichtbarkeitseinbruch

© Sistrix

In diesem Fall ist die Sichtbarkeit innerhalb weniger Tage auf 0 gefallen. Nach drei Wochen waren fĂŒr diese Domain kaum noch Suchergebnisse in Google zu finden.

Info

Wir empfehlen niemanden SEO zu pausieren und zu stoppen, den professionelle Google Suchmaschinenoptimierung besteht aus mehr als nur Content und Linkaufbau. Die eigene Seite sollte laufend ĂŒberwacht und auf FunktionalitĂ€t geprĂŒft werden. Wenn die eigene Webseite einmal down ist, muss schnell reagiert werden – in dieser Hinsicht sind ihre User und potentiellen Kunden oft strenger als Google.

26.4 Die Konkurrenz schlÀft nicht

Immer mehr Unternehmen setzten auf professionelle Suchmaschinenoptimierung, um erfolgreich im WWW zu sein. Das erhöht auch den Druck an den eigenen Internetauftritt. Nur wer unter den Top-Ergebnissen bei Google und Bing gefunden wird, kann sich ĂŒber höheren Traffic freuen. Die erste Seite bei Google & Co bietet jedoch nur Platz fĂŒr 10 organische Suchergebnisse. Ein Top-Ergebnis kann niemals langfristig garantiert werden – wer nichts tut und sich auf den Lorbeeren ausruht, wird langfristig von aktiven Wettbewerbern ĂŒberholt.

In vielen Branchen tragen auch die hohen Kosten fĂŒr bezahlte Online Marketing KanĂ€le dazu bei, dass immer mehr Unternehmen auf SEO (Suchmaschinenoptimierung) setzten. In der Finanzbranche sind Klickkosten von ĂŒber € 10,- pro Klick (!) keine Seltenheit:

CPC Kosten Finanzen

© Google Keyword Planner

Im SEO hingegen fallen keine Klickkosten an.

Tipp

In unserem Blogbeitrag SEO-SEA-Synergien haben wir zusammengetragen, warum es sich lohnen kann wichtige Adwords-Keywords im SEO zu optimieren.

Wer sich im SEO (Suchmaschinenoptimierung) behaupten möchte, muss frĂŒher oder spĂ€ter seine Konkurrenz ĂŒberholen, um die begrenzten Top-Rankings zu ergattern. Professionelle SEOs setzten dabei auf Technologien und SEO-Tools und haben ihren Wettbewerb stetig im Blick. Wenn Sie mit einem wichtigen Keyword den ersten Platz bei Google belegen, wird Ihre Konkurrenz alles daransetzten, Sie zu ĂŒberholen. Mit SEO-Tools lĂ€sst sich heute leichter prĂŒfen, welche guten Backlinks, Techniken und Inhalte eine Webseite besitzt. Wer gutes SEO betreibt, wird einen Nachahmer finden, der versuchen wird, es noch besser zu machen:

Sichtbarkeit Wettbewerb

© OSG Performance Suite

PrĂŒfen Sie daher laufend die TĂ€tigekeiten und die Entwicklung Ihrer Konkurrenz.

Tipp

Mit unserem OSG Performance Suite haben Sie Ihre Wettbewerber stetig im Blick und werden ĂŒber Alerts in Echtzeit informiert, wenn es auf Ihrer Internetseite zu technischen Problemen, Rankingverlusten und -gewinnen kommt.

26.5 Slow Death: Einen Status Quo gibt es nicht

Wer nichts mehr im SEO tut oder seine Maßnahmen nicht im Blick hat, wird frĂŒher oder spĂ€ter von der Konkurrenz ĂŒbertrumpft. Einen Status Quo im SEO gibt es nicht. Google kennt ĂŒber 200 Rankingfaktoren – nur wer es unter die Top-Ergebnisse geschafft hat, bietet den Usern das beste Nutzererlebnis. Top-Ergebnisse zeichnen sich durch eine gute Technik, hochwertige Inhalte, eine nutzerfreundliche Usability und starke Backlinks aus. Die Rankingfaktoren unterliegen hierbei einem stetigen Wandel um den Nutzern gerecht zu werden. Heute kommt zum Beispiel keine InternetprĂ€senz mehr ohne eine mobilfreundliche Seite aus. Wer seine AktivitĂ€t und die der Wettbewerber nicht mehr im Blick hat, wird in den organischen Suchergebnissen “langsam sterben”. Unter dem Begriff Slow Death (deutsch: langsamer Tod ) versteht man das sukzessive Verschwinden aus den SERPs von Google und anderen Suchmaschinen. Ein Slow Death lĂ€sst sich daran erkenn, dass immer mehr Keywords nicht mehr in den Suchergebnissen gefunden werden oder die SEO Sichtbarkeit laufend sinkt.

Slow Death: Seite verliert an Sichtbarkeit

© Sistrix

Weitere Informationen zum Slow Death haben wir hier zusammengefasst. GrĂŒnde fĂŒr einen langsamen Tod können technische Fehler sein, aber auch, dass eine InternetprĂ€senz nicht mehr betreut und aktualisiert wird – und so Platz fĂŒr andere Webseiten macht.

26.6 Gute Ergebnisse wirken nach

Das Szenario vom Slow Death ist nicht die Regel und tritt eher auf, wenn SEO-Maßnahmen öfters falsch oder schlecht umgesetzt worden sind. SEO (Suchmaschinenoptimierung) ist ein langfristiger Kanal. Das deutet, dass eine gute SEO-Arbeit sich auch Wochen oder Monate spĂ€ter positiv auf die Ergebnisse auswirken kann. Wer SEO Basics (gute Technik, kein Spam) von Anfang an beachtet, kann auch spĂ€ter noch davon profitieren. Vergleichen kann man dies mit einem Hausbau: wer von Beginn an ein gutes GrundgerĂŒst und Fundament setzt, muss bei einer spĂ€teren Renovierung nicht das gesamte Haus abreißen und komplett von vorne beginnen. Im SEO gilt ein Ă€hnliches Prinzip: Auch wenn die SEO-Maßnahmen eingestellt werden (was wir nicht empfehlen), kann spĂ€ter auf eine solide Infrastruktur zurĂŒckgegriffen werden.

Fazit

Wer die Arbeit in der Suchmaschinenoptimierung einstellt, wird frĂŒher oder spĂ€ter aus den Google Suchergebnissen verdrĂ€ngt. Der Verlust von Traffic, Umsatz Sichtbarkeit und Rankings ist ein schleichender Prozess und tritt in vielen FĂ€llen nicht sofort ein. Da SEO (Suchmaschinenoptimierung) ein langfristiger Kanal ist, können SEO-Maßnahmen auch noch Monate spĂ€ter profitabel sein und sich fĂŒr Unternehmen auszahlen. Dennoch: Selbst wer nur pausiert verschenkt Chancen – denn die Konkurrenz schlĂ€ft nicht.

27. SEO Guide Fazit

Nun kennen Sie die wichtigsten Teilbereiche der Suchmaschinenoptimierung. Wenn Sie die genannten Tipps beherzigen und umsetzen, haben Sie den ersten Schritt zu einem besseren Ranking vollbracht. Die Google Suchmaschinenoptimierung (Bing Suchmaschinenoptimierung) ist allerdings kein einmaliges Unternehmen, sondern bedarf einer fortlaufenden Beachtung. Wenn Sie sich weiter in das Thema einlesen wollen, empfehle ich Ihnen unsere Liste der besten SEO BĂŒcher.

Falls Sie noch Fragen zu diesem Thema oder zu anderen Themen aus dem Bereich Online Marketing haben, können Sie sich gerne jederzeit bei uns melden.

Zum Kontaktformular E-Mail senden

28. HĂ€ufige Fragen

Kann ich meine SEO-Sichtbarkeit auch selbst mit einem kostenlosen Tool prĂŒfen?

Ja, z.B. mit https://www.domainvalue.de/. Weitere kostenlose Tools finden Sie auch von Sistrix: https://www.sistrix.de/kostenlose-tools/.

Wie lange dauert es bis die ersten SEO-Ergebnisse einer optimierten Landingpage sichtbar sind?

Werden neue Seiten erstellt oder auch bestehende Seiten optimiert, dauert es in der Regel ein paar Tage, bis Google diese Änderungen verarbeitet (sofern interne Verlinkungen und weitere Faktoren stimmen). Danach ergibt sich die Position in AbhĂ€ngigkeit der durchgefĂŒhrten Optimierungen, der Wettbewerber und des Nutzer-Verhaltens. Eine genaue Zeitdauer kann man dabei nicht nennen. Planen Sie jedoch als grobe Richtlinie 2-4 Wochen ein, bis die ersten Ergebnisse da sind. Durch externe Verlinkungen auf die Landingpage können Sie diesen Prozess beschleunigen.

Wie misst man den SEO-Erfolg?

Dazu gibt es verschiedene Kennzahlen: Die erreichten Keyword-Positionen der jeweiligen Seite. Die Sichtbarkeit der jeweiligen Seite. Der SEO-Traffic, den die Seite erzielt. Alle diese Kennzahlen können Sie in unserer Performance Suite einsehen.

GenĂŒgt es, wenn ich einmal SEO mache?

Leider nicht. SEO (und UX) ist ein fortlaufender Prozess. Es kommen immer wieder Google-Updates, wo sich die Bewertungsgrundlage Àndern kann. Auch der Wettbewerb ist laufend dran an SEO (Suchmaschinenoptimierung). Aus diesem Grund reicht eine einmalige Optimierung nicht aus. Die Website sollte technisch laufend gewartet werden, Content soll laufend optimiert und ausgebaut werden und es sollten laufend Backlinks generiert werden.

Wann wenn meine Seite in Google nicht auffindbar ist?

Das liegt daran, dass die Seite noch nicht in den Top-100 zum jeweiligen Keyword von Google in Betracht gezogen worden ist, oder die Seite ist von Google nicht indexierbar. Im ersten Fall sollte man sich noch einmal die Inhalte anschauen und prĂŒfen, ob sie dem Zweck der Seite dienen und daraufhin optimieren. Liegen technische Schwierigkeiten vor, dann diese von SEO-Spezialisten geprĂŒft und verbessert werden. Falls Sie Ihre Seite im Google-Index nicht finden können, dann kontaktieren Sie uns!

Kostenloser SEO-Check der OSG



Weitere Inhalte


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*