Форум веб-мастеров Google активно осуждает вопрос сканирования сайта со стороны GoogleBot. По словам одного из участников дискуссии, сканирование со стороны робота производится не чаще 10-ти запросов за одну секунду за весь период его наблюдений на своем интернет-ресурсе. В подтверждение проблемы автор мнения выложил график, на котором зафиксировано поведение GoogleBot, при этом задается вопросом, почему установлен такой лимит и можно ли его увеличить в том, случае если сервер может взять дополнительную нагрузку.
Ответ на вопрос дал Джон Мюллер, который утверждает, что лимит на частоту сканирования устанавливается автоматически. То есть GoogleBot определяет оптимальную частоту для сервера, исходя из текущей загрузки. Таким образом, вебмастер никак не может самостоятельно повлиять на периодичность сканирования сайта, ему остается только лишь не мешать действиям GoogleBot. В случае выявления реальных проблем со сканированием ресурса, Джон Мюллер рекомендует вебмастерам и администраторам сразу сообщить в Webmaster Tools, нажав на «Сообщить о проблеме». Это поможет сотрудникам сервиса эффективно разобраться в проблеме и определить вызвавшие ее причины.
Создание сайтов |
Продвижение сайтов |
Комментарии (0)