SEO

Дублированный контент на сайте

Очень часто на пути веб-мастеров к высоким позициям сайта становится такая проблема, как дублированный контент, так как поисковики отрицательно воспринимают как полный, так и частичный дубль страниц.

Что плохо в дублированном контенте?

Уникальный текст для сайта несет огромную ценность.


Дублированный контент может привести к таким проблемам:

– к понижению страниц Вашего сайта в выдаче поисковиков, так как покупные ссылки приводят пользователя не на ту страницу, которая находится в индексе поисковиков, а также к полному выкидыванию страниц сайта из индекса
– к меньшей посещаемости Вашего сайта

Чтобы избежать этих проблем, создавайте уникальный текст для сайта и тестируйте его на наличие дублей. Давайте посмотрим, в каких случаях допускается дублирование контента на сайте или блоге для того, чтобы не допустить негативные последствия.

Источниками дублированного контента являются:

  • RSS-ленты;
  • страницы для печати;
  • дубли контента, которые создаются CMS сайта (страницы категорий, меток, страницы авторов);
  • служебные страницы сайта.

Решается данная проблема запретом к индексации некоторых типов страницы веб-сайта.

Как протестировать статью на наличие дублей?

Узнать или есть в сети дубли продвигаемых Вами страниц можно следующими способами:

  • С помощью следующих бесплатных программ, таких как адвего плагиатус, double content finder, антиплагиат eTXT;
  • Проверка на наличие дублей в режиме «online»: copyscape. ru, findcopy. ru, antipagiat. ru и других;
  • При помощи поискового робота. Например, чтобы Яндекс показал скрытые от человека страницы, необходимо вбить в строку поиска «я ищу» (пишите название страницы, которую хотите проверить на дубли). А в строку «на сайте:» впишите имя сайта и нажмите «найти». Делайте это при расширенном поиске. Яндекс покажет страницы с совпадениями.

Дублированный контент. Что делать?

Для начала нужно сделать так называемую, уборку и удалить контент, которые дублируют продвигаемые Вами страницы. Но если текст удалить не получается, мы закрываем его от индексации.

Для этого необходимы следующие инструменты:

Meta-тег “robots” в header страницы – html.

У этого тега могут быть атрибуты:

  • <meta name="robots" content="follow"> - учитывать ссылки;
  • <meta name="robots" content="noindex"> - наоборот не индексировать;
  • <meta name="robots" content="nofollow"> - не брать во внимание ссылки;
  • <meta name="robots" content="all"> - всё индексировать;
  • <meta name="robots" content="none"> - ничего не индексировать;

Тег Роботс существует для того, чтобы указать поисковым роботам, на индексацию страницы и на то, можно ли пройти по ссылкам, размещенным на этой странице. – «noindex» – специальный тег Яндекс. С помощью noindex можно закрыть часть текста, который расположен на странице. При том, что Робот увидит его, он не учтет этот текст.

Файл «Robots.txt»

В наших предыдущих выпусках мы не раз говорили о таком важном файле, как robots.txt. Сегодня хочется напомнить, что этот текстовый файл расположен в корневой директории веб-сайта. Он записывает специальные инструкции для поисковиков. И эти инструкции могут запретить к индексированию определенные страницы сайта и целые разделы. Также они могут указывать на основное зеркало сайта, давать рекомендации поисковику и соблюдать определенные поисковые интервалы между скачиваниями с сервера документов.

О том, как сделать файл robots.txt для WordPress можете прочитать из нашей статьи.

Вывод

Как Вы заметили, в борьбе с дублями контента нет ничего сложного и их появление можно предотвратить. С самого начала, при создании веб-сайта нужно произвести хорошую техническую оптимизацию сайта. Также решению проблем с дублями контента, может помочь создание карт веб-сайта. Это особенно касается тех сайтов, контент которых ежедневно обновляется. Уникальный текст для сайта – это одно из главных условий успешного продвижения Вашего сайта в поисковиках. Но, к сожалению, даже уникальные статьи, написанные по заказу или самостоятельно, не всегда могут Вас избавить от дублирования контента. Устранив вовремя на своем сайте данную проблему, Вы сможете добиться заметных результатов в продвижении сайта поисковиками.

Написать комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.