Skip to main content

Slow Death

Was bedeutet Slow Death?

Die Bezeichnung Slow Death (aus dem Englischen: langsamer Tod) beschreibt das Phänomen des allmählichen Verschwindens einer Webseite aus den Suchergebnissen einer Suchmaschine. Dieses unerwünschte Sterben einer Webseite ist im Hinblick auf die Suchmaschinenoptimierung (SEO) von hoher Bedeutung. Die Symptome zeigen sich oft nur schleichend. Die Gründe für einen Slow Death können vielseitig sein, wobei oftmals nur spekuliert werden kann. Mit bestimmten Gegenmaßnahmen können Webseiten-Betreiber einem Slow Death vorbeugen. Eine Internetseite nach dem Slow Death zurück in die SERP zu bringen, ist problematisch.

Anzeichen und Symptome eines Slow Death

Der Name weist bereits auf den langsamen und schleichenden Charakter des Phänomens hin. Ein Symptom, das Webseiten-Betreiber auf einen möglichen Slow Death hinweist, ist ein dauerhafter und kontinuierlicher Rückgang der Besucherzahlen über eine Suchmaschine. Wenn sich aus den Analysedaten identifizieren lässt, dass immer weniger Besucher über organische Suchergebnisse auf einer Internetseite landen, gibt dies Rückschluss auf eine absinkende Platzierung in den SERP. Analyse-Tools wie Google Analytics geben Rückschluss auf solche Phänomene.

Ein weiteres Symptom für den schleichenden Tod der Webseite ist der Wegfall der kleinen beschreibenden Texte in den Snippets der Suchergebnisliste. In einem solchen Fall verwendet beispielsweise die Suchmaschine Google für die Treffer auf Unterseiten nur noch die reine URL.

Auch der Sichtbarkeitsindex einer Domain kann einen Hinweis auf ein “langsames Sterben” geben. Hier ein Beispiel einer Domain, die stetig an Sichtbarkeit verliert:

Slow Death: Seite verliert an Sichtbarkeit

Slow Death: Sichtbarkeit

Mögliche Ursachen eines Slow Death

Über Ursachenquellen eines Slow Death spekulieren Webmaster und SEOs, ohne dass hierüber sicheres Wissen vorliegt. Ein häufig angenommener Grund hängt mit kopierten Inhalten (Duplicate Content) zusammen. Ebenso wird hinter fehlerhaften robots.txt-Dateien eine Slow-Death-Ursache vermutet. Bestimmte Blockaden auf der Seite können zu einer falschen Einstufung der Seite als irrelevant führen. Wenn der Crawler einer Suchmaschine wie Google aufgrund von Blockierungen keinen Zugriff auf die Inhalte einer Seite hat, wird eine Seite als unwichtig eingestuft.

Dies trifft auch zu, wenn es sich nur um Teile oder Unterseiten der Webseite handelt. In diesem Zusammenhang sind auch blockierte CSS-Dateien zu erwähnen. Sind diese für das Webseiten-Design erforderlichen Dateien blockiert, so kann auch dies dazu führen, dass entsprechende Seitenbereiche als nicht relevant eingestuft werden. Einblick in die Darstellung der Seiteninhalte gegenüber Google gewährt die Google Search Console. Hier sehen Betreiber, wie der Bot von Google die eigenen Seiten wahrnimmt. Kommen hier nicht sichtbare Textteile zum Vorschein, so kann dies eine mögliche Ursache für das abnehmende Ranking sein.

Ebenso wird in Manipulationen einer Seite eine Ursache für Slow Death vermutet. Solche Manipulationen können etwa Resultat eines Hackerangriffs sein.

Auch wenn diese Ursachen für einen Slow Death in Frage kommen und ein allmähliches Nachlassen der Platzierungen und Zugriffe auslösen können, bedarf die Ursachenforschung einer exakten Analyse. Liegen mehrere mögliche Ursachen vor, so gilt es im Einzelfall verschiedene Möglichkeiten auszuprobieren und Schritt für Schritt mögliche Fehlerquellen zu bereinigen.

Slow-Death-Prävention

Um einem Slow Death vorzubeugen, sind mehrere Präventions-Maßnahmen möglich. Von hoher Bedeutung ist es, die Seite einem regelmäßigen Monitoring zu unterziehen. Dies geschieht mit Anwendungen wie der Google Search Console. Diese identifizieren Auffälligkeiten und ermöglichen es Webseiten-Betreibern, auf diese sofort zu reagieren. Verdächtige Links oder fremde Manipulationen der Seite werden erkannt, sodass die Fehlerbehebung bei regelmäßigem Monitoring rechtzeitig möglich ist.

Eine weitere Vorbeugemaßnahme besteht in der Vermeidung von Duplicate Content. Webanalyse-Tools können Doppelte-oder Mehrfach-Inhalte identifzieren. Duplicate Content kann intern oder extern auftreten. Unerlaubt kopierte Inhalte führen zu externem Duplicate Content. Solcher kann etwa durch eine Google-Suche in Anführungszeichen (Exakt-Match) auf externen Seiten ausfindig gemacht werden.

Wichtig ist zudem eine regelmäßige Überprüfung der robots.txt-Datei. Hierbei gilt es für Webmaster in Erfahrung zu bringen, ob relevante Inhalte oder Verzeichnisse vom Crawling durch Google ausgeschlossen werden. SEOs und Webmaster können die robots.txt-Datei etwa mittels Google Search Console überprüfen.

Für Webseiten-Betreiber empfiehlt es sich auch unabhängig vom konkreten Slow-Death-Verdacht, den Content der eigenen Webpräsenz fortwährend zu pflegen. Dies betrifft etwa die Aktualität der Adressdaten, die Rechtssicherheit des Impressums oder die Anpassung von Textinhalten an gegenwärtige Veränderungen.

 

Tipp

Bei Slow-Death-Verdacht empfiehlt es sich, unmittelbar entgegenzusteuern. Ist eine Domain einmal aus den Suchergebnislisten verschwunden, so lässt sie sich nur noch schwer rekonstruieren.

Gegenmaßnahmen

Zunächst gilt es bei der Fehlersuche die in Frage kommenden Ursachen auszuschließen. Hierbei ist etwa die Frage relevant, ob doppelte Inhalte vorliegen, die es zu vermeiden gilt. In diesem Zusammenhang sind auch Scraper auszuschließen, das heißt Webseiten, die eigene Inhalte kopieren und nutzen. Die Google Search Console gilt es stets im Auge zu behalten und entsprechende Nachrichten zu lesen. Nicht zuletzt sollte auch ein möglicher Hacker-Angriff ausgeschlossen werden.

Bei der Suche nach Fehlern und Ursachen kann sich herausstellen, dass Google eine Penalty vorgenommen hat. Hierbei handelt es sich um eine Art Abstrafung, die mit einem Ranking-Verlust und damit einhergehend mit geringeren Zugriffszahlen verbunden ist. Anders als bei Slow Death gibt es nach dem Beseitigen der Fehler, die zu einer Penalty geführt haben, die Möglichkeit eines Reconsideration Requests. Nachdem die notwendigen Anpassungen erfolgt sind, sollten die betroffenen Seiten erneut an den Google-Index weitergeleitet werden. Dies geschieht über die Search Console von Google. Auch eine Aktualisierung der Sitemap sowie eine erneute Einreichung sind erforderlich, um Google die Möglichkeit eines erneuten Scrawlings der Webseite zu geben.

Sie haben noch Fragen?

Kontaktieren Sie uns