Поисковый робот: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[непроверенная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
мНет описания правки
м +Interwikies
Строка 11: Строка 11:


[[Category:Поисковые системы]]
[[Category:Поисковые системы]]

[[de:Webcrawler]]
[[en:Web crawler]]
[[fr:Robot d'indexation]]
[[it:Web crawler]]
[[ja:クローラ]]
[[nl:Spider]]

Версия от 11:22, 4 марта 2005

Поиско́вый ро́бот - программа, являющаяся составной частью поисковой системы и предназначенная для обхода страниц Интернета с целью занесения информации о них (ключевые слова) в базу поисковика.

Порядок обхода страниц, частота визитов, защита от зацикливания, а также критерии выделения ключевых слов определяется алгоритмами поисковой машины.

В большинстве случаев переход от одной страницы к другой осуществляется по ссылкам, содержащимся на первой странице.

Также многие поисковые системы предоставляют пользователю возможность самостоятельно добавить сайт в очередь для индексирования. Обычно это существенно ускоряет индексирование сайта.

Ограничить индексацию сайта можно с помощью файла robots.txt, однако некоторые поисковые системы могут игнорировать наличие этого файл.