Bing – Verbessertes Testing-Tool für robots.txt
Die Erstellung einer optimalen robots.txt-Datei ist unerlässlich und hat für die Suchmaschinenoptimierung (SEO) oberste Priorität. Denn diese Datei teilt Suchmaschinen mit, was diese tun und nicht tun sollen.
Ein Fehler in einer robots.txt-Datei kann dazu führen, dass Suchmaschinen Seiten crawlen, die nicht indiziert werden sollten. Oder der umgekehrte Fall tritt ein. Deshalb ist es nicht verwunderlich, dass Fehler in dieser Datei eine der häufigsten Ursachen bei Problemen mit dem Ranking sind.
Mit dem verbesserten Tool von Bing haben Publisher nun die Möglichkeit robots.txt-Datei proaktiv zu testen und auf Fehler zu überprüfen.
Bing dazu:
Webmaster können eine URL an das Test-Tool robots.txt senden, welches wie ein Bingbot und BingAdsBot funktioniert, um die Datei robots.txt zu überprüfen und zu prüfen, ob die URL entsprechend zugelassen oder blockiert wird.
Besonders nützlich: das Test-Tool zeigt vier verschiedene robots.txt Versionen an, welche der sicheren und unsicheren Version mit und ohne WWW-Präfix entsprechen.
Werdet ihr das Tool in Zukunft nutzen? Wir sind gespannt auf eure Meinung!
Quelle: searchenginejournal.com
Keine Kommentare vorhanden