Поисковый робот: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[непроверенная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
м +Interwikies
мНет описания правки
Строка 8: Строка 8:


Ограничить индексацию сайта можно с помощью файла [[robots.txt]],
Ограничить индексацию сайта можно с помощью файла [[robots.txt]],
однако некоторые поисковые системы могут игнорировать наличие этого [[компьютерный файл|файл]].
однако некоторые поисковые системы могут игнорировать наличие этого [[компьютерный файл|файла]].


[[Category:Поисковые системы]]
[[Category:Поисковые системы]]

Версия от 09:42, 24 июля 2005

Поиско́вый ро́бот - программа, являющаяся составной частью поисковой системы и предназначенная для обхода страниц Интернета с целью занесения информации о них (ключевые слова) в базу поисковика.

Порядок обхода страниц, частота визитов, защита от зацикливания, а также критерии выделения ключевых слов определяется алгоритмами поисковой машины.

В большинстве случаев переход от одной страницы к другой осуществляется по ссылкам, содержащимся на первой странице.

Также многие поисковые системы предоставляют пользователю возможность самостоятельно добавить сайт в очередь для индексирования. Обычно это существенно ускоряет индексирование сайта.

Ограничить индексацию сайта можно с помощью файла robots.txt, однако некоторые поисковые системы могут игнорировать наличие этого файла.