Поисковый робот

Материал из Википедии — свободной энциклопедии
Это старая версия этой страницы, сохранённая 128.69.252.223 (обсуждение) в 16:02, 12 мая 2022 (Преамбула: орфография, вопрос, ответ, к удалению, запрос источника, дополнение, итог, закрыто, обновление, исправление, уточнение, источники, иллюстрирование, категоризация, комментарий, пунктуация, стилевые правки, оформление, внутренние ссылки). Она может серьёзно отличаться от текущей версии.
Перейти к навигации Перейти к поиску

Поиско́вый ро́бот, или веб-кра́улер (англ. Web crawler; также встречается название «веб-пау́к») — программа, являющаяся составной частью поисковой системы и предназначенная для перебора страниц Интернета с целью занесения информации о них в базу данных поисковика. k'd; 'd,l двьлв. дыьд эюбыдьы

См. также

Ссылки