Вебмастеру |
Как дубликаты страниц влияют на работу поисковых систем![]() Помимо этого в задачу поисковых систем входит борьба за чистоту индексной базы. Ведь документов поступающих в интернет ежедневно огромное количество, и все они должны быть проиндексированы. Для того чтобы работа поисковых систем был немного проще, разрабатываются специальные алгоритмы, задача которых состоит в маркировке незначительных страниц. Поэтому для поисковых систем создаются дубликаты страниц, которые заполонят весь интернет. Они не содержат уникальный контент и создают излишнюю нагрузку. К примеру, если у того или иного сайта имеется сорок дубликатов, то это в сорок раз усложняет работу поисковой системы. Недостатков у дубликатов достаточно. Во-первых, они увеличивают количество ссылок. Значимость главной страницы от этого не увеличивается. Во-вторых, на главной странице можно найти не ту копию, которая там должна находится. В-третьих, потеря уникальности-это очевидно из того что количество страниц очень велико. В-четвертых, при поиске нужная страница может просто исчезнуть, потому что в течение, какого то времени происходит удаление дубликатов. Это происходит из-за того, что поисковые системы очень часто принимают главную страницу за дубликат и пропускают ее. В общем, дубликаты страниц приводят к тому, что поисковая система может исключить из поиска нужную страницу, и помимо этого сайт с огромным количеством своих дубликатов будет плохо индексироваться. Поэтому лучше всего если сайт имеет анонсы своего содержимого, то их нужно создавать только в уникальном контенте, без дублирования. |
ДизайнеруЭто интересно |