Was sind Crawl-Fehler?
Crawl-Fehler sind erfolglose Versuche von Suchmaschinen-Spidern, eine Website zu crawlen. Wenn Suchmaschinen wie Google versuchen, auf den Inhalt Ihrer Website zuzugreifen und ihn zu indizieren, können sie auf Probleme stoßen, die sie daran hindern, dies zu tun. Diese Probleme werden als Crawl-Fehler bezeichnet. In der Search Console von Google werden Crawl-Fehler in zwei Hauptkategorien unterteilt: Website-Fehler und URL-Fehler.
Arten von Crawl-Fehlern
Website-Fehler
Website-Fehler betreffen die gesamte Website und verhindern, dass Suchmaschinen auf einen Teil der Website zugreifen können. Häufige Website-Fehler sind:
-
DNS-Fehler:
- Probleme mit dem Domain Name System (DNS), die verhindern, dass die Suchmaschine Ihre Website findet. Dies könnte auf falsch konfigurierte DNS-Einstellungen oder Serverprobleme zurückzuführen sein.
-
Server-Verbindungsfehler:
- Probleme mit dem Server, die verhindern, dass er auf Suchmaschinenanfragen antwortet. Dazu können Serverüberlastungen, Ausfallzeiten oder falsch konfigurierte Servereinstellungen gehören.
-
Robots.txt-Fehler:
- Probleme mit der robots.txt-Datei, die Suchmaschinen am Crawlen der Website hindern. Dies kann vorkommen, wenn die Datei fehlt, falsch konfiguriert ist oder Direktiven enthält, die das Crawling verhindern.
URL-Fehler
URL-Fehler betreffen bestimmte URLs auf einer Website und verhindern, dass Suchmaschinen auf diese einzelnen Seiten zugreifen können. Häufige URL-Fehler sind:
-
Soft 404-Fehler:
- Seiten, die eine "Seite nicht gefunden"-Meldung an Benutzer zurückgeben, aber dennoch einen 200 (OK) Statuscode an Suchmaschinen senden. Dies verwirrt Suchmaschinen und verschwendet Crawl-Budget.
-
404-Fehler:
- Seiten, die auf dem Server nicht existieren und einen "404 Not Found"-Statuscode zurückgeben. Diese Fehler treten auf, wenn eine URL falsch eingegeben wurde oder eine Seite ohne ordnungsgemäße Umleitung gelöscht oder verschoben wurde.
-
Zugang verweigert:
- Seiten, die den Zugriff für Suchmaschinen-Bots beschränken, in der Regel aufgrund von Berechtigungseinstellungen oder Authentifizierungsanforderungen.
-
Nicht befolgt:
- Seiten, denen Suchmaschinen aufgrund von Problemen mit Weiterleitungen, JavaScript oder anderen technischen Faktoren nicht folgen können.
Warum sind Crawl-Fehler wichtig?
Erhebliche Mengen an Crawl-Fehlern deuten auf einen schlechten Zustand der Website hin und können sowohl die Benutzerfreundlichkeit als auch das Suchmaschinen-Ranking negativ beeinflussen. Crawl-Fehler können dazu führen:
-
Reduzierte Kriechfrequenz:
- Suchmaschinen besuchen Ihre Website möglicherweise weniger häufig, wenn sie auf zahlreiche Fehler stoßen, was zu einer verzögerten Indizierung neuer oder aktualisierter Inhalte führt.
-
Reduzierte Krabbeltiefe:
- Suchmaschinen durchsuchen möglicherweise nicht alle Seiten Ihrer Website, wodurch wichtige Inhalte, die Sie indiziert haben möchten, möglicherweise übersehen werden.
-
Negative Auswirkungen auf SEO:
- Eine hohe Anzahl von Crawl-Fehlern kann den Suchmaschinen signalisieren, dass Ihre Website schlecht gewartet ist, was sich negativ auf Ihre Platzierung in den Suchmaschinen auswirken kann.
Erkennen und Beheben von Crawl-Fehlern
Erkennen von Crawl-Fehlern
Verwenden Sie Google Search Console, um Crawling-Fehler zu überwachen und zu identifizieren. Das Tool liefert detaillierte Berichte zu Website- und URL-Fehlern und hilft Ihnen dabei, die spezifischen Probleme zu identifizieren, die Ihre Website betreffen.
- Melden Sie sich bei Google Search Console an.
- Navigieren Sie zum Deckungsbericht.
- Überprüfen Sie die Liste der erkannten Fehler.
- Klicken Sie auf bestimmte Fehler, um weitere Einzelheiten und betroffene URLs zu erfahren.
Behebung von Crawl-Fehlern
-
DNS-Fehler:
- Überprüfen und korrigieren Sie Ihre DNS-Einstellungen. Wenden Sie sich bei Bedarf an Ihren Hosting-Provider, um Unterstützung zu erhalten.
-
Server-Verbindungsfehler:
- Stellen Sie sicher, dass Ihr Server richtig konfiguriert ist und den Datenverkehr bewältigen kann. Kümmern Sie sich um eventuelle Probleme mit Serverausfällen oder Überlastungen.
-
Robots.txt-Fehler:
- Überprüfen Sie Ihre robots.txt-Datei auf korrekte Konfiguration. Stellen Sie sicher, dass sie keine wichtigen Teile Ihrer Website blockiert.
-
Soft 404 und 404-Fehler:
- Korrigieren Sie defekte Links oder leiten Sie sie um. Stellen Sie sicher, dass gelöschte oder verschobene Seiten ordnungsgemäße 301-Weiterleitungen zu relevanten Inhalten haben.
-
Zugang verweigert:
- Passen Sie die Berechtigungseinstellungen an, damit Suchmaschinen-Bots auf wichtige Seiten zugreifen können. Stellen Sie sicher, dass die Authentifizierungsanforderungen keine wichtigen Inhalte blockieren.
-
Nicht befolgt:
- Überprüfen und beheben Sie Probleme mit Weiterleitungen, JavaScript und anderen Faktoren, die Suchmaschinen daran hindern, Links zu folgen.
Schlussfolgerung
Crawl-Fehler müssen unbedingt erkannt und behoben werden, um eine gesunde Website zu erhalten und eine optimale Suchmaschinenleistung zu gewährleisten. Überwachen Sie den Crawl-Status Ihrer Website regelmäßig mit Tools wie der Google Search Console und beheben Sie alle Probleme umgehend, um die Nutzererfahrung und das Suchmaschinenranking zu verbessern.