Как дубликаты страниц влияют на работу поисковых систем

Дубликаты страниц
Все поисковые системы постоянно совершают свои изначально заданные алгоритмы, для того чтобы быстро находить запрашиваемую пользователями информацию. Поисковики отбирают только те страницы, которые пользуются большой популярностью, исходя из таких критериев как читабельность и посещаемость.

Помимо этого в задачу поисковых систем входит борьба за чистоту индексной базы. Ведь документов поступающих в интернет ежедневно огромное количество, и все они должны быть проиндексированы. Для того чтобы работа поисковых систем был немного проще, разрабатываются специальные алгоритмы, задача которых состоит в маркировке незначительных страниц. Поэтому для поисковых систем создаются дубликаты страниц, которые заполонят весь интернет. Они не содержат уникальный контент и создают излишнюю нагрузку. К примеру, если у того или иного сайта имеется сорок дубликатов, то это в сорок раз усложняет работу поисковой системы.

Недостатков у дубликатов достаточно. Во-первых, они увеличивают количество ссылок. Значимость главной страницы от этого не увеличивается. Во-вторых, на главной странице можно найти не ту копию, которая там должна находится. В-третьих, потеря уникальности-это очевидно из того что количество страниц очень велико. В-четвертых, при поиске нужная страница может просто исчезнуть, потому что в течение, какого то времени происходит удаление дубликатов. Это происходит из-за того, что поисковые системы очень часто принимают главную страницу за дубликат и пропускают ее.

В общем, дубликаты страниц приводят к тому, что поисковая система может исключить из поиска нужную страницу, и помимо этого сайт с огромным количеством своих дубликатов будет плохо индексироваться. Поэтому лучше всего если сайт имеет анонсы своего содержимого, то их нужно создавать только в уникальном контенте, без дублирования.

Опубликовано: 21 Июль, 2013 | Просмотров: 3131 |     | Печать

Это интересно