Noindex

NoIndex

© Copyright Shutterstock/ photovibes

Was ist “noindex”?

Die robots-Angabe “noindex” im Meta-Tag einer Seite gibt den Suchmaschinen-Crawlern die Anweisung, eine Seite nicht in den Index aufzunehmen. Die Seite erscheint somit nicht in den Suchergebnissen.

Wann verwendet man “noindex?

Die “noindex”-Angabe kann nützlich sein, wenn die Seite dem User keinen Mehrwert in den Suchergebnissen bietet oder wenn doppelte Inhalte ausgeschlossen werden sollen.
Beispielsweise sollte die interne Suchfunktion einer Webseite nicht indexiert werden. Sind gleiche Inhalte auf unterschiedlichen Urls verfügbar, z.B. auf domain.de/inhalt und domain.de/inhalt?filter kann die Filter-Url von der Indexierung ausgeschlossen werden.

Einbindung von “noindex”

Der Meta-Tag “noindex” wird im-Bereich des Quellcodes einer Seite hinterlegt.

Meta-Tag-Aufbau:

<meta name="robots" content="noindex" />

Die Angabe meta name=”robots” bezieht sich auf alle Suchmaschinen-Crawler, d.h. die Seite soll in keinen Suchergebnissen von Google, Bing & Co gelistet werden. Möglich ist auch, nur einzelne Crawler wie den Google Bot auszuschließen, indem man statt “robots” den entsprechenden Crawler direkt anspricht; in diesem Fall “googlebot”. Diese Möglichkeit wird in der Praxis kaum genutzt, in der Regel sollen die Anweisungen für alle Crawler gelten.

Tipp

Das Gegenteil von “noindex” ist “index”, d.h. die Seite kann von den Suchmaschinen indexiert werden. Während sich Suchmaschinen strikt an “noindex” halten, ist “index” eine Empfehlung. Suchmaschinen möchten nur relevante Inhalte in den Suchergebnissen anzeigen: Duplikate, Seiten mit schwachen Inhalten uvm. werden trotz “index” dann nicht indexiert.
Übrigens: enthält eine Seite weder den Meta-Tag “noindex” noch “index”, wird sie von Suchmaschinen so behandelt, als wäre der Meta-Tag “index” gesetzt. “Noindex” muss daher zwangläufig gesetzt werden, wenn man Seiten explizit ausschließen möchte

Was ist der Unterschied zwischen “noindex” und “disallow” in der robots.txt?

In der robots.txt werden via “disallow” einzelne Seiten vom Crawling ausgeschlossen und damit den Suchmaschinen der Zugriff auf diese Seiten verwehrt. Der Meta Tag “noindex” ist hingegen nur eine Anweisung, nicht in den Suchergebnissen gelistet zu werden. Die robots.txt ist das erste Dokument, das ein Crawler abruft, wenn er eine Seite besucht.
Hat der Crawler aufgrund eines “disallow”-Befehls in der robots.txt keinen Zugriff auf die entstprechende Seite, kann er folglich den Meta Tag “noindex” nicht auslesen. “Disallow” und “noindex” sollten daher nicht gleichzeitig genutzt werden. Insbesondere, wenn eine Seite bereits einmal indexiert worden ist, kann sie über die robots.txt nicht aus den Suchergebnissen entfernt werden.

Beispiel:

Suchergebnis über robots.txt gesperrt

(c) Google

Wann ist die Verwendung von “noindex” und “follow” sinnvoll?

Der Meta Tag “follow bzw. “nofollow” gibt an, ob Suchmaschinen den Links auf einer Seite folgen sollen oder nicht. Fehlt die “nofollow” Angabe, wird die Seite so behandelt als wäre “follow” gesetzt. “Noindex” und “follow” werden verwendet, wenn man Inhalte nicht in den Suchergebnissen aufführen möchte, die Links dieser Seite aber dennoch relevant sind.

Beispiele:

  • Die Sortierfunktion eines Onlineshops (shop.de/schuhe?nachkleinstempreis) ändert nicht den Inhalt der Kategorie shop.de/schuhe, sondern sortiert den Inhalt nur um.
  • Parameter-Urls, die Duplicate Content erzeugen: domain.de/hallo und domain.de/hallo?xyz
  • Suchergebnisseiten einer Webseite oder eines Onlineshops
  • Sitemap HTML

Die Sitemap HTML ist ein Inhaltsverzeichnis und dient auch dazu, die interne Verlinkung zu stärken. Nicht immer ist die Sitemap HTML jedoch ansprechend gestaltet, insbesondere bei umfangreichen Seiten enthält sie oft nur eine lange Aufzählung aller URls einer Domain. Für die Suchmaschinen ist diese Seite dennoch sinnvoll, dem User bietet sie in den Suchergebnissen aber kein gutes Nutzererlebnis.

Wann ist die Verwendung von “noindex” und “nofollow” sinnvoll?

Im Prinzip sperrt man Suchmaschinen mit der Kombination “noindex” und “nofollow” aus. Der Crawler kann durch “nofollow” den Links auf dieser Seite nicht folgen. Sind hier wichtige Inhalte verlinkt, auf die nicht von anderen Seiten verwiesen wird, können sie von Suchmaschinen nicht analysiert werden. Diese Kombination wird daher meist nur für Testumgebungen oder für private Bereich genutzt und sollte nur mit Bedacht eingesetzt werden.

Tipp

Wenn Sie noch Fragen bezüglich eines Online Marketing Themas haben, dann können Sie gerne unseren Glossar besuchen und sich über das Thema informieren, wo Sie noch speziell Fragen haben.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte