Dein Nachschlagewerk für Website, Technik & Business.
Stöbere oder suche gezielt nach dem, was dir gerade hilft.
Crawler – die digitalen Suchmaschinen-Roboter
Ein Crawler (auch „Bot“ oder „Spider“ genannt) ist ein automatisiertes Programm, das von Suchmaschinen eingesetzt wird, um Websites zu durchsuchen. Ziel ist es, Inhalte zu erfassen (Crawling), zu analysieren und für die Indexierung vorzubereiten.
Crawler folgen Links von Seite zu Seite, lesen Texte, Bilder, Metadaten und technische Anweisungen – wie etwa aus der robots.txt. Auf Basis dieser Daten entscheidet die Suchmaschine, wie und ob eine Seite in den Suchergebnissen angezeigt wird.
Bekannte Beispiele:
- Googlebot (Google)
- Bingbot (Microsoft Bing)
- YandexBot (Yandex)
Für Website-Betreiber ist es wichtig, den Crawlern die Arbeit zu erleichtern – zum Beispiel durch eine saubere Seitenstruktur, interne Verlinkungen und eine aktuelle XML-Sitemap.