Roboty indeksujące strony: Różnice pomiędzy wersjami

Z ToProste
Skocz do: nawigacji, wyszukiwania
m (Utworzył nową stronę „'''Roboty indeksujące strony''' Plik:Strona w przygotowaniu.png Kategoria:Uzupełnić”)
 
m (Zabezpieczył Roboty indeksujące strony ([edit=sysop] (na zawsze) [move=sysop] (na zawsze)))
 
(Nie pokazano 3 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
'''Roboty indeksujące strony'''
+
'''Roboty indeksujące strony''' są to [[program]]y zbierające informacje ze stron internetowych. Analizują one strukturę i treść publikowaną na stronach aby następnie umieścić ją w indeksie [[Wyszukiwarka internetowa |wyszukiwarek]].
  
[[Plik:Strona w przygotowaniu.png]]
+
Roboty stale "przeglądają" zawartość stron. Jedne robią to pobieżnie - sprawdzając czy od ostatniej wizyty zaszyły jakieś zmiany, drugie przeglądają cały serwis.
  
[[Kategoria:Uzupełnić]]
+
== Główne zadania robotów ==
 +
* zbieranie informacji o stronie,
 +
* sprawdzanie kodu strony,
 +
* monitorowanie "co nowego",
 +
* dodawanie do wyszukiwarek,
 +
* tworzenia mirrorów stron.
 +
 
 +
 
 +
== Inne nazwy robotów ==
 +
* [[Bot |bot]] indeksujący
 +
* pająk, spider
 +
* pełzacz, web crawler
 +
* web wanderer
 +
 
 +
 
 +
== Zobacz też ==
 +
<htmlet>zobacz-tez</htmlet>
 +
* [[Robots.txt |Sterowanie zachowaniem robotów za pomocą pliku robots.txt]]
 +
* [[Meta name – robots |Sterowanie zachowaniem robotów za pomocą META NAME]]
 +
 
 +
 
 +
 
 +
=== Podstawowe informacje o robotach wyszukiwarek ===
 +
* [http://www.robotstxt.org/wc/faq.html The Web Robots FAQ]
 +
* [http://www.robotstxt.org/wc/exclusion.html Robots Exclusion] Opis zasad sterowania robotem na własnej stronie
 +
* [http://www.robotstxt.org/wc/active.html The Web Robots Database] Lista aktywnych działających robotów sieciowych
 +
 
 +
 
 +
[[Kategoria:Wyszukiwarki internetowe]]
 +
[[Kategoria:Robots]]

Aktualna wersja na dzień 17:50, 14 cze 2014

Roboty indeksujące strony są to programy zbierające informacje ze stron internetowych. Analizują one strukturę i treść publikowaną na stronach aby następnie umieścić ją w indeksie wyszukiwarek.

Roboty stale "przeglądają" zawartość stron. Jedne robią to pobieżnie - sprawdzając czy od ostatniej wizyty zaszyły jakieś zmiany, drugie przeglądają cały serwis.

Główne zadania robotów

  • zbieranie informacji o stronie,
  • sprawdzanie kodu strony,
  • monitorowanie "co nowego",
  • dodawanie do wyszukiwarek,
  • tworzenia mirrorów stron.


Inne nazwy robotów

  • bot indeksujący
  • pająk, spider
  • pełzacz, web crawler
  • web wanderer


Zobacz też

<htmlet>zobacz-tez</htmlet>


Podstawowe informacje o robotach wyszukiwarek