Roboty indeksujące strony: Różnice pomiędzy wersjami

Z ToProste
Skocz do: nawigacji, wyszukiwania
m (Zobacz też)
m (Zabezpieczył Roboty indeksujące strony ([edit=sysop] (na zawsze) [move=sysop] (na zawsze)))
 
(Brak różnic)

Aktualna wersja na dzień 17:50, 14 cze 2014

Roboty indeksujące strony są to programy zbierające informacje ze stron internetowych. Analizują one strukturę i treść publikowaną na stronach aby następnie umieścić ją w indeksie wyszukiwarek.

Roboty stale "przeglądają" zawartość stron. Jedne robią to pobieżnie - sprawdzając czy od ostatniej wizyty zaszyły jakieś zmiany, drugie przeglądają cały serwis.

Główne zadania robotów

  • zbieranie informacji o stronie,
  • sprawdzanie kodu strony,
  • monitorowanie "co nowego",
  • dodawanie do wyszukiwarek,
  • tworzenia mirrorów stron.


Inne nazwy robotów

  • bot indeksujący
  • pająk, spider
  • pełzacz, web crawler
  • web wanderer


Zobacz też

<htmlet>zobacz-tez</htmlet>


Podstawowe informacje o robotach wyszukiwarek