Neuer Google Index Report zeigt keine blockierten URLs aus Sitemaps

Copyright © Shutterstock/Freedomz
Der Google Sitemaps Report in der Google Search Console zeigt – von robots.txt – blockierte URLs als Warnung an. Jedoch informiert der Google Index Report darüber nicht. Dies meldete der Twitter User Alan Bleiweiss.
@Johnmu – the old GSC reports over 11k URLs in sitemaps blocked by robots.txt, yet these don’t show up in the new GSC reports. Why not? It’s a site with 1k indexed pages so sitemaps are polluted. pic.twitter.com/Nc9c9wm0HY
— Alan Bleiweiss (@AlanBleiweiss) 2. Juli 2018
John Mueller hat darauf auf Twitter wie folgt reagiert:
Those are sample URLs tested before being submitted to indexing – this is done at the sitemap submission, so it wouldn’t be in the indexing report in the new SC.
— John ?.o(???)o.? (@JohnMu) 3. Juli 2018
Quelle: Diskussion auf Twitter
Titelbild: Copyright © Shutterstock/Freedomz
Keine Kommentare vorhanden