In der neuesten Episode von Ask Google Webmasters geht John Müller von Google darauf ein, ob es in Ordnung ist, spezielle Dateien in robots.txt zu blockieren.
Er beantwortet eine Frage zur Verwendung von robots.txt zum Blockieren spezieller Dateien, einschließlich .css und .htacess.
Hier ist die Frage, die eingereicht wurde:
“Sollte ich in Bezug auf robots.txt ‘disallow: /*.css$’, ‘disallow: /php.ini’, oder sogar ‘disallow: /.htaccess’?”
Laut Müller, kann Google die Website-Besitzer nicht daran hindern, diese Dateien zu verbieten. Obwohl es sicherlich nicht empfehlenswert ist.
In einigen Fällen ist das Blockieren spezieller Dateien einfach überflüssig, obwohl es in anderen Fällen die Fähigkeit von Googlebot, eine Website zu durchsuchen, ernsthaft beeinträchtigen könnte:
Florian Müller ist Gründer und Geschäftsführer der 2008 gegründeten Online Solutions Group GmbH (OSG), einem Online-Marketing-Anbieter aus München. Die OSG bietet Services und eigene Technologien. Zu den Leistungen gehören unter anderem SEO, SEA, Social Advertising, Display Marketing sowie weitere performanceorientierte Leistungen.
Müller ist seit über 15 Jahren im Online-Marketing aktiv und hat weit über 500 Unternehmen bei der Einführung und Optimierung des Online-Marketings geholfen, darunter internationale Konzerne wie auch KMUs.
Seit 2012 entwickelt Müller mit seiner Agentur das eigene SEO-Tool Performance Suite. Damit soll SEO durch KI automatisiert und Wettbewerbsvorteile erzielt werden.
linkedin.com/in/florian-müller-834362236
Keine Kommentare vorhanden