Поисковый робот: различия между версиями
[непроверенная версия] | [непроверенная версия] |
Nikiforov (обсуждение | вклад) мНет описания правки |
Bubuka (обсуждение | вклад) м +Interwikies |
||
Строка 11: | Строка 11: | ||
[[Category:Поисковые системы]] |
[[Category:Поисковые системы]] |
||
[[de:Webcrawler]] |
|||
[[en:Web crawler]] |
|||
[[fr:Robot d'indexation]] |
|||
[[it:Web crawler]] |
|||
[[ja:クローラ]] |
|||
[[nl:Spider]] |
Версия от 11:22, 4 марта 2005
Поиско́вый ро́бот - программа, являющаяся составной частью поисковой системы и предназначенная для обхода страниц Интернета с целью занесения информации о них (ключевые слова) в базу поисковика.
Порядок обхода страниц, частота визитов, защита от зацикливания, а также критерии выделения ключевых слов определяется алгоритмами поисковой машины.
В большинстве случаев переход от одной страницы к другой осуществляется по ссылкам, содержащимся на первой странице.
Также многие поисковые системы предоставляют пользователю возможность самостоятельно добавить сайт в очередь для индексирования. Обычно это существенно ускоряет индексирование сайта.
Ограничить индексацию сайта можно с помощью файла robots.txt, однако некоторые поисковые системы могут игнорировать наличие этого файл.