SEO-Glossar / X-Roboter-Tag

X-Roboter-Tag

Was ist der X-Robots-Tag?

Der X-Robots-Tag ist eine optionale Komponente des HTTP-Antwort-Headers, die Suchmaschinen mitteilt, wie eine Webseite gecrawlt und indiziert werden soll. Im Gegensatz zum Meta-Robots-Tag, der für HTML-Seiten reserviert ist, kann der X-Robots-Tag für Nicht-HTML-Dateien wie Bilder, Textdateien und PDFs verwendet werden.

Hier ist ein Beispiel für eine HTTP-Antwort mit einem X-Robots-Tag:

HTTP/1.1 200 OK Datum: Tue, 15 Nov 2022 11:38:17 GMT Content-Encoding: gzip (...) X-Robots-Tag: noindex (...)

Warum ist der X-Robots-Tag wichtig?

Der X-Robots-Tag ist wichtig, weil Sie damit steuern können, wie Suchmaschinen nicht nur HTML-Seiten, sondern auch andere Dateitypen indizieren und crawlen. Diese Fähigkeit ist besonders nützlich für die Verwaltung großer Websites mit einer Vielzahl von Inhaltstypen. Die wichtigsten Vorteile sind:

  • Flexibel: Wenden Sie Direktiven auf Nicht-HTML-Dateien wie PDFs, Bilder und Videos an.
  • Globale Anwendung: Verwenden Sie das Tag, um Regeln standortweit oder auf bestimmte Verzeichnisse und Dateitypen anzuwenden.
  • Reguläre Ausdrücke: Verwenden Sie erweiterte Muster, um mehrere URLs effizient zu erfassen.

Gemeinsame Richtlinien für X-Robots-Tag

Sie können jede Direktive, die für den Meta-Robots-Tag gültig ist, mit dem X-Robots-Tag verwenden. Hier sind einige häufig verwendete Direktiven:

  • noindex: Verhindert, dass die Seite oder Datei von Suchmaschinen indiziert wird.
  • nofollow: Verhindert, dass Suchmaschinen den Links auf der Seite folgen.
  • keine: Äquivalent zu "noindex, nofollow".
  • noarchive: Verhindert, dass die Suchmaschinen eine im Cache gespeicherte Version der Seite anzeigen.
  • nosnippet: Verhindert, dass Suchmaschinen ein Snippet der Seite in den Suchergebnissen anzeigen.

Um beispielsweise Googlebot anzuweisen, keine Links in PDF-Dateien zu indizieren oder zu verfolgen, könnten Sie Folgendes verwenden:

<Files ~ "\.pdf$"> Header setze X-Robots-Tag "noindex, nofollow" </Files>

So richten Sie den X-Robots-Tag ein

Auf dem Apache-Server

Sie können das X-Robots-Tag in der .htaccess-Datei oder der httpd.conf-Datei einrichten. Hier erfahren Sie, wie Sie eine noindex-Direktive auf alle PDF-Dateien anwenden können:

<Files ~ "\.pdf$"> Header setze X-Robots-Tag "noindex" </Files>

Auf dem NGINX-Server

Bei NGINX können Sie die Direktive in der .conf-Datei der Website hinzufügen:

location ~* \.pdf$ { add_header X-Robots-Tag "noindex"; }

Richtlinien für bestimmte Crawler festlegen

Sie können Richtlinien für bestimmte Crawler angeben, indem Sie sie benennen:

Kopfzeile mit X-Robots-Tag "googlebot: noindex, nofollow"

Anzeigen des X-Robots-Tags

Im Gegensatz zum Robots-Meta-Tag ist der X-Robots-Tag Teil des HTTP-Antwort-Headers und nicht im HTML-Code sichtbar. Hier erfahren Sie, wie Sie es in Google Chrome anzeigen können:

  1. Laden Sie die URL in Google Chrome.
  2. Klicken Sie mit der rechten Maustaste auf die Seite und wählen Sie "Prüfen", um die Entwicklertools zu öffnen.
  3. Wählen Sie die Registerkarte "Netzwerk".
  4. Laden Sie die Seite neu.
  5. Wählen Sie die betreffende Datei auf der linken Seite aus; die HTTP-Header, einschließlich des X-Robots-Tags, werden auf der rechten Seite angezeigt.

FAQs

Kann ich den X-Robots-Tag mit HTML-Seiten verwenden?

Ja, aber es wird eher für Nicht-HTML-Dateien verwendet. Für HTML-Seiten ist es einfacher, den Meta-Robots-Tag im HTML-Code zu verwenden.

Wie kann ich testen, ob mein X-Robots-Tag funktioniert?

Verwenden Sie das Tool Inspect in den Entwicklertools Ihres Browsers, um die HTTP-Antwort-Header zu überprüfen. Sie können auch Online-Tools wie das URL-Inspektions-Tool von Google verwenden.

Kann der X-Robots-Tag die robots.txt überschreiben?

Nein, der X-Robots-Tag kann die robots.txt-Richtlinien nicht außer Kraft setzen. Wenn eine URL in robots.txt verboten ist, werden Suchmaschinen sie nicht crawlen und folglich auch die X-Robots-Tag-Richtlinien nicht sehen.

Wenn Sie den X-Robots-Tag verstehen und richtig implementieren, können Sie besser kontrollieren, wie Suchmaschinen mit den verschiedenen Dateitypen Ihrer Website interagieren, und so die Suchmaschinenoptimierung und die Benutzerfreundlichkeit Ihrer Website verbessern.

SEO für lokale Unternehmen

Die Menschen suchen nicht mehr in den Gelben Seiten nach lokalen Unternehmen. Sie nutzen Google. Erfahren Sie in unseren SEO-Leitfäden für lokale Unternehmen, wie Sie mehr Aufträge über die organische Suche erhalten.

Nutzen Sie Ranktracker kostenlos!

Finden Sie heraus, was Ihre Website vom Ranking abhält

Kostenloses Konto einrichtenOder melden Sie sich mit Ihren Anmeldedaten an
Nutzen Sie Ranktracker kostenlos!