Slow Death

Was bedeutet Slow Death?

Die Bezeichnung Slow Death (aus dem Englischen: langsamer Tod) beschreibt das Ph├Ąnomen des allm├Ąhlichen Verschwindens einer Webseite aus den Suchergebnissen einer Suchmaschine. Dieses unerw├╝nschte Sterben einer Webseite ist im Hinblick auf die Suchmaschinenoptimierung (SEO) von hoher Bedeutung. Die Symptome zeigen sich oft nur schleichend. Die Gr├╝nde f├╝r einen Slow Death k├Ânnen vielseitig sein, wobei oftmals nur spekuliert werden kann. Mit bestimmten Gegenma├čnahmen k├Ânnen Webseiten-Betreiber einem Slow Death vorbeugen. Eine Internetseite nach dem Slow Death zur├╝ck in die SERP zu bringen, ist problematisch.

Anzeichen und Symptome eines Slow Death

Der Name weist bereits auf den langsamen und schleichenden Charakter des Ph├Ąnomens hin. Ein Symptom, das Webseiten-Betreiber auf einen m├Âglichen Slow Death hinweist, ist ein dauerhafter und kontinuierlicher R├╝ckgang der Besucherzahlen ├╝ber eine Suchmaschine. Wenn sich aus den Analysedaten identifizieren l├Ąsst, dass immer weniger Besucher ├╝ber organische Suchergebnisse auf einer Internetseite landen, gibt dies R├╝ckschluss auf eine absinkende Platzierung in den SERP. Analyse-Tools wie Google Analytics geben R├╝ckschluss auf solche Ph├Ąnomene.

Ein weiteres Symptom f├╝r den schleichenden Tod der Webseite ist der Wegfall der kleinen beschreibenden Texte in den Snippets der Suchergebnisliste. In einem solchen Fall verwendet beispielsweise die Suchmaschine Google f├╝r die Treffer auf Unterseiten nur noch die reine URL.

Auch der Sichtbarkeitsindex einer Domain kann einen Hinweis auf ein “langsames Sterben” geben. Hier ein Beispiel einer Domain, die stetig an Sichtbarkeit verliert:

Slow Death: Seite verliert an Sichtbarkeit

┬ęSistrix

M├Âgliche Ursachen eines Slow Death

├ťber Ursachenquellen eines Slow Death spekulieren Webmaster und SEOs, ohne dass hier├╝ber sicheres Wissen vorliegt. Ein h├Ąufig angenommener Grund h├Ąngt mit kopierten Inhalten (Duplicate Content) zusammen. Ebenso wird hinter fehlerhaften robots.txt-Dateien┬áeine Slow-Death-Ursache vermutet. Bestimmte Blockaden auf der Seite k├Ânnen zu einer falschen Einstufung der Seite als irrelevant f├╝hren. Wenn der Crawler einer Suchmaschine wie Google aufgrund von Blockierungen keinen Zugriff auf die Inhalte einer Seite hat, wird eine Seite als unwichtig eingestuft.

Info

Dies trifft auch zu, wenn es sich nur um Teile oder Unterseiten der Webseite handelt. In diesem Zusammenhang sind auch blockierte CSS-Dateien zu erw├Ąhnen. Sind diese f├╝r das Webseiten-Design erforderlichen Dateien blockiert, so kann auch dies dazu f├╝hren, dass entsprechende Seitenbereiche als nicht relevant eingestuft werden. Einblick in die Darstellung der Seiteninhalte gegen├╝ber Google gew├Ąhrt die Google Search Console. Hier sehen Betreiber, wie der Bot von Google die eigenen Seiten wahrnimmt. Kommen hier nicht sichtbare Textteile zum Vorschein, so kann dies eine m├Âgliche Ursache f├╝r das abnehmende Ranking sein.

Ebenso wird in Manipulationen einer Seite eine Ursache f├╝r Slow Death vermutet. Solche Manipulationen k├Ânnen etwa Resultat eines Hackerangriffs sein.

Auch wenn diese Ursachen f├╝r einen Slow Death in Frage kommen und ein allm├Ąhliches Nachlassen der Platzierungen und Zugriffe ausl├Âsen k├Ânnen, bedarf die Ursachenforschung einer exakten Analyse. Liegen mehrere m├Âgliche Ursachen vor, so gilt es im Einzelfall verschiedene M├Âglichkeiten auszuprobieren und Schritt f├╝r Schritt m├Âgliche Fehlerquellen zu bereinigen.

Slow-Death-Pr├Ąvention

Um einem Slow Death vorzubeugen, sind mehrere Pr├Ąventions-Ma├čnahmen m├Âglich. Von hoher Bedeutung ist es, die Seite einem regelm├Ą├čigen Monitoring zu unterziehen. Dies geschieht mit Anwendungen wie der Google Search Console. Diese identifizieren Auff├Ąlligkeiten und erm├Âglichen es Webseiten-Betreibern, auf diese sofort zu reagieren. Verd├Ąchtige Links oder fremde Manipulationen der Seite werden erkannt, sodass die Fehlerbehebung bei regelm├Ą├čigem Monitoring rechtzeitig m├Âglich ist.

Eine weitere Vorbeugema├čnahme besteht in der Vermeidung von Duplicate Content. Webanalyse-Tools k├Ânnen Doppelte-oder Mehrfach-Inhalte identifzieren.┬áDuplicate Content kann intern oder extern auftreten. Unerlaubt kopierte Inhalte f├╝hren zu externem Duplicate Content. Solcher kann etwa durch eine Google-Suche in Anf├╝hrungszeichen (Exakt-Match) auf externen Seiten ausfindig gemacht werden.

Wichtig ist zudem eine regelm├Ą├čige ├ťberpr├╝fung der robots.txt-Datei. Hierbei gilt es f├╝r Webmaster in Erfahrung zu bringen, ob relevante Inhalte oder Verzeichnisse vom Crawling durch Google ausgeschlossen werden. SEOs und Webmaster k├Ânnen die robots.txt-Datei etwa mittels Google Search Console ├╝berpr├╝fen.

F├╝r Webseiten-Betreiber empfiehlt es sich auch unabh├Ąngig vom konkreten Slow-Death-Verdacht, den Content der eigenen Webpr├Ąsenz fortw├Ąhrend zu pflegen. Dies betrifft etwa die Aktualit├Ąt der Adressdaten, die Rechtssicherheit des Impressums oder die Anpassung von Textinhalten an gegenw├Ąrtige Ver├Ąnderungen.

 

Tipp

Bei Slow-Death-Verdacht empfiehlt es sich, unmittelbar entgegenzusteuern. Ist eine Domain einmal aus den Suchergebnislisten verschwunden, so l├Ąsst sie sich nur noch schwer rekonstruieren.

Gegenma├čnahmen

Zun├Ąchst gilt es bei der Fehlersuche die in Frage kommenden Ursachen auszuschlie├čen. Hierbei ist etwa die Frage relevant, ob doppelte Inhalte vorliegen, die es zu vermeiden gilt. In diesem Zusammenhang sind auch Scraper auszuschlie├čen, das hei├čt Webseiten, die eigene Inhalte kopieren und nutzen. Die Google Search Console gilt es stets im Auge zu behalten und entsprechende Nachrichten zu lesen. Nicht zuletzt sollte auch ein m├Âglicher Hacker-Angriff ausgeschlossen werden.

Bei der Suche nach Fehlern und Ursachen kann sich herausstellen, dass Google eine Penalty vorgenommen hat. Hierbei handelt es sich um eine Art Abstrafung, die mit einem Ranking-Verlust und damit einhergehend mit geringeren Zugriffszahlen verbunden ist. Anders als bei Slow Death gibt es nach dem Beseitigen der Fehler, die zu einer Penalty gef├╝hrt haben, die M├Âglichkeit eines Reconsideration Requests. Nachdem die notwendigen Anpassungen erfolgt sind, sollten die betroffenen Seiten erneut an den Google-Index weitergeleitet werden. Dies geschieht ├╝ber die Search Console von Google. Auch eine Aktualisierung der Sitemap sowie eine erneute Einreichung sind erforderlich, um Google die M├Âglichkeit eines erneuten Scrawlings der Webseite zu geben.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte