Roboty indeksujące strony: Różnice pomiędzy wersjami
Z ToProste
m |
m |
||
Linia 20: | Linia 20: | ||
== Zobacz też == | == Zobacz też == | ||
<htmlet>zobacz-tez</htmlet> | <htmlet>zobacz-tez</htmlet> | ||
+ | * [[Robots.txt]] | ||
Linia 29: | Linia 30: | ||
[[Kategoria:Wyszukiwarki internetowe]] | [[Kategoria:Wyszukiwarki internetowe]] | ||
+ | [[Kategoria:Robots]] |
Wersja z 21:51, 20 kwi 2013
Roboty indeksujące strony są to programy zbierające informacje ze stron internetowych. Analizują one strukturę i treść publikowaną na stronach aby następnie umieścić ją w indeksie wyszukiwarek.
Roboty stale "przeglądają" zawartość stron. Jedne robią to pobieżnie - sprawdzając czy od ostatniej wizyty zaszyły jakieś zmiany, drugie przeglądają cały serwis.
Spis treści
Główne zadania robotów
- zbieranie informacji o stronie,
- sprawdzanie kodu strony,
- monitorowanie "co nowego",
- dodawanie do wyszukiwarek,
- tworzenia mirrorów stron.
Inne nazwy robotów
- bot indeksujący
- pająk, spider
- pełzacz, web crawler
- web wanderer
Zobacz też
<htmlet>zobacz-tez</htmlet>
Podstawowe informacje o robotach wyszukiwarek
- The Web Robots FAQ
- Robots Exclusion Opis zasad sterowania robotem na własnej stronie
- The Web Robots Database Lista aktywnych działających robotów sieciowych