Представитель Google Джон Мюллер, специализирующийся на анализе поисковых трендов, рассказал, каким образом происходит индексация и ранжирование дублированных страниц веб-ресурсов. Основная информация, представленная специалистом, сводится к следующему:
- Алгоритмы Google при выявлении нескольких веб-страниц повторяющегося контента для отображения пользователю выбирают только один URL. Для правильного выбора страницы-первоисточника создатели и владельцы сайтов должны прописывать внутренние ссылки и использовать перенаправления на страницу-источник. Кроме этого, при необходимости должен использоваться атрибут rel=canonical, что позволит указать Google, на какую страницу ссылаются дубликаты.
- При создании сайта обязательно стоит учитывать, что большое количество страниц (до двухсот) с дублирующим контентом негативно сказывается на скорости сканирования ресурса, создавая излишнюю нагрузку на сервер.
- Нормальной считается ситуация, когда сайт содержит небольшое количество дублирующих страниц, сканирование которых не перегружает сервер. В этом случае обеспечивается нормальная загрузка выбранной поисковым алгоритмом интернет-страницы. Стоит отметить, что пользователю все равно, какой из дублирующих URL будет ему доступен, так как ему важен исключительно контент: информативный и читабельный.
Комментарии (0)