Cloaking: Warum es manchmal okay ist, Crawlern andere Seiten anzuzeigen

Cloaking: Warum es manchmal okay ist, Crawlern andere Seiten anzuzeigen

Copyright © Shutterstock / Dooder


Ist das Blockieren von Google Bots bei anti-ad Erkennung gleich Cloaking? Diese Frage wurde Googles John Mueller gestellt. Wir erklären Ihnen, was Sie sich unter dem Begriff vorstellen dürfen und warum es manchmal okay ist, Webcrawlnern andere Seiten anzuzeigen.

Was ist Cloaking?

Cloaking ist eine ältere Methode, bei der Suchmaschinen Bots eine andere Website gezeigt wird, als Menschen. Beim Cloaking wird mehrmals das Keyword auf der Website eingefügt, damit die Seite besser geranked wird. Das ganze heißt “keyword spamming” und wird von Google nicht gerne gesehen.

Während die Seite für Suchmaschinen Bots nur aus Keywords besteht und nicht vertrauenswürdig aussieht, bekommen Menschen diese als eine normale Website zu Gesicht.

Googles Search Center Richtlinien, hält folgendes Beispiel für ein besseres Verständnis bereit:

“Serving a page of HTML text to search engines, while showing a page of images to users

Inserting text or keywords into a page only when the user agent that’s requesting the page is a search engine, not a human visitor”

Verursacht der Ad-Blocker Cloaking?

Nun kam die Frage auf, bei der ein Websitenbesitzer darüber nachdachte, seiner Website einen anti-ad Blocker hinzuzufügen. Dieser verhindert, dass Besucher mit einem Blocker den Inhalt sehen.

Ziel ist es, die Besucher darin zu schulen, die Website auf eine Whitelist zu setzen, damit sie den Inhalt und die Werbung sehen können. Das war die konkrete Frage:

“We have a site that is considering adding ad blocker detection to prevent users from accessing the site whenever the ad blocker is on.

The question here is, if we decide to exclude Googlebot from seeing the ad block detection, will we be flagged for cloaking in that situation?”

Es geht darum, dass Nutzer mit und ohne Ad-Blocker verschiedene Möglichkeiten auf der Webseite haben. Nutzer ohne Ad-Blocker sind berechtigt den Content zu sehen, wohingegen Nutzer von Ad-Blockern der Inhalt nicht angezeigt wird.

John Mueller antwortete wie folgt:

“Probably not. I think in general that would be fine.

I would kind of see that as a way of recognizing that Googlebot doesn’t actually have an ad blocker installed.

So it’s kind of a unique setup that Googlebot has with regards to rendering pages and I think that would kind of be okay.”

Mueller sah darin kein Problem, da der Content zwischen Bot und Mensch nicht unterschiedlich sei.

Auch erklärte er, dass er kein Fan der “anti-ad blocking setups” sei, dies allerdings ein angemessener Ansatz ist.

Eine weitere Frage die aufkam war, ob ein ad-blocking overlay zu Index Problemen führen würde.

Auch dies ist laut Mueller eher unproblematisch:

“If it’s an HTML overlay on top of the existing page then I don’t see that as being problematic because we would still see the actual content in the HTML, kind of, behind that.

That’s similar to like if you have …a cookie banner or a cookie interstitial that you’re essentially showing just an HTML div on top of the page.

From our point of view if we can still index the actual content from the page then that’s fine.”

Auch wenn dies einige positive Aussagen von John Mueller waren, sollten Sie dennoch immer aufpassen, dass Sie kein Cloaking betreiben und gegebenenfalls hierfür abgestraft werden.

 

Quelle: Search Engine Journal

Kostenloser SEO-Check der OSG



Weitere Inhalte


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*