Google: Werden ähnliche URLs als Duplikate gesehen?

Google: Werden ähnliche URLs als Duplikate gesehen?

Copyright © Shutterstock / Alan Tunnicliffe


Weshalb werden viele Webseiten von Google nicht mehr indexiert? Werden auch ähnliche URLs als Duplikate angesehen? Am 05. März beantwortete John Mueller diese Frage und erklärte, was man dagegen unternehmen könne:

 

Warum sinken URLs im Ranking?

Um sich Arbeit zu sparen, benutzt Google eine präventive Lösung, um duplizierte Inhalte zu erkennen. Werden während des Webcrawlings zwei Seiten mit identischem URL und übereinstimmenden Content gefunden, so erkennt Google hier ein Muster. Dies kann dazu führen, dass weitere Webseiten mit ähnlicher URL ebenfalls als Duplikat angesehen und behandelt werden.

 

Zu welchem Problem kann dies führen?

Durch die automatische Erkennung von Duplicate Content, kann es passieren, dass Webseiten fälschlicherweise in den Rankings verloren gehen, die einzigartigen Content liefern. Besonders Event Webseiten, die dieselben Veranstaltungen für mehrere Standorte anbieten, sind hier ein gutes Beispiel. Für jede Stadt wird die Webseite benötigt, dennoch werden diese von Google leicht als Duplikat erkannt.

“[…] And you take a city maybe five kilometers away and you show exactly the same events again. And from our side, that could easily end up in a situation where we say, well, we checked 10 event URLs, and this parameter that looks like a city name is actually irrelevant because we checked 10 of them and it showed the same content.

And that’s something where our systems can then say, well, maybe the city name overall is irrelevant and we can just ignore it.”

Was können Sie dagegen unternehmen?

Um zu verhindern, dass dies mit Ihrer eigenen Internetseite passiert, sollten Sie sich vor dem Veröffentlichen informieren, ob es schon mehr über Ihren Inhalt im Internet zu finden gibt. So sollten Sie auf Informationen verzichten, die sich mit den Inhalten identischer Artikel überschneiden.

Auch das Setzen von Cannonicals ist für Mueller ein guter Weg, um weiterhin von Google indexiert zu werden:

“And that could be by using something like a rel canonical on the page and saying, well, this small city that is right outside the big city, I’ll set the canonical to the big city because it shows exactly the same content.

So that really every URL that we crawl on your website and index, we can see, well, this URL and its content are unique and it’s important for us to keep all of these URLs indexed.

Or we see clear information that this URL you know is supposed to be the same as this other one, you have maybe set up a redirect or you have a rel canonical set up there, and we can just focus on those main URLs and still understand that the city aspect there is critical for your individual pages.”

Und auch wenn Mueller es nicht noch einmal gezielt angesprochen hat, so ist wichtig zu wissen, dass Duplicate Content kein Grund für ein negatives Ranking ist. In solchen Fällen wird Google diese Seiten nicht mehr indexieren.

 

Quelle: Search Engine Land

Kostenloser SEO-Check der OSG



Weitere Inhalte


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*