Filtern von Bot-Traffic in Google Analytics

Bot Traffic

Copyright © Shutterstock/ 4 Phonlamai Photo


Laut einer Incapsula-Studie aus dem Jahr 2013 macht der durch Bots, also nicht-menschliche Besucher, verursachte Datenverkehr über 60 % des gesamten Internet-Traffics aus. Ein Glück das man mit einem simplen Klick diese unerwünschten Website-Besucher effektiv filtern kann.

Hierzu muss der Website-Betreiber, sobald er in seinem Google-Analytics-Konto angemeldet ist, über den Navigationspunkt “Verwalten” in die Datenansicht wechseln und dort auf “Einstellungen der Datenansicht klicken”. Auf der daraufhin erscheinenden Seite einfach die Checkbox bei “Alle Treffer von bekannten Bots und Spidern ausschließen” aktivieren und schon werden künftig alle Zugriffe von Bots (=Hits), die auf einer von der Organisation “IAB” geführten Blacklist stehen, herausgefiltert. So sollte man schließlich zu einer realistischeren Sicht auf die tatsächlichen Besucherzahlen eines Internetauftrittsgelangen. Welche “User Agents” bei dieser Methode aber konkret ausgeschlossen werden, bleibt im Verborgenen, da die Blacklist nicht öffentlich einsehbar ist.

Warum ist es überhaupt wichtig, Treffer von Suchmaschinen-Bots wie Google oder Bing sowie von Hacking-Tools und Spammern in den Webanalyse-Tools außen vor zu lassen? Ganz einfach: Sie verfälschen die Datenbasis, indem sie die Visits künstlich aufblähen, Bounceraten in die Höhe schnellen lassen (da ein Bot oft nur eine Seite betrachtet und dann wieder den Webauftritt verlässt) und Conversionrates senken.

Allerdings kann es für den ein oder anderen Webmaster sinnvoll sein, zu wissen, wann und wie häufig ein bestimmter Bot auf eine Seite zugegriffen hat oder welchen Anteil der Bot-Traffic am gesamten Datenverkehr einer Website ausmacht.

Kostenloser SEO-Check der OSG



Weitere Inhalte


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*