Dein Nachschlagewerk für Website, Technik & Business.

Stöbere oder suche gezielt nach dem, was dir gerade hilft.

< Alle Themen
Drucken

Crawler – die digitalen Suchmaschinen-Roboter

Ein Crawler (auch „Bot“ oder „Spider“ genannt) ist ein automatisiertes Programm, das von Suchmaschinen eingesetzt wird, um Websites zu durchsuchen. Ziel ist es, Inhalte zu erfassen (Crawling), zu analysieren und für die Indexierung vorzubereiten.

Crawler folgen Links von Seite zu Seite, lesen Texte, Bilder, Metadaten und technische Anweisungen – wie etwa aus der robots.txt. Auf Basis dieser Daten entscheidet die Suchmaschine, wie und ob eine Seite in den Suchergebnissen angezeigt wird.

Bekannte Beispiele:

  • Googlebot (Google)
  • Bingbot (Microsoft Bing)
  • YandexBot (Yandex)

Für Website-Betreiber ist es wichtig, den Crawlern die Arbeit zu erleichtern – zum Beispiel durch eine saubere Seitenstruktur, interne Verlinkungen und eine aktuelle XML-Sitemap.

Hat dir dieser Beitrag weitergeholfen?
0 von 5
5 Bewertung 0%
4 Bewertung 0%
3 Bewertung 0%
2 Bewertung 0%
1 Bewertung 0%
5
Teile gern dein Feedback
Wie können wir diesen Artikel verbessern?
Brauchst du Unterstützung?
WordPress Cookie Plugin von Real Cookie Banner