SEO: Дублирование контента

Довольно часто web-мастера сталкиваются с проблемой дублированного контента во время продвижения сайта, потому как роботы-поисковики негативно относятся к полным и частичным дублям.

SEO:Дублирование контента.

Смотрите полный видеокурс на iTunes

Почему дублированный контент вреден?

Дублированный контент может привести к некоторым проблемам, главное не использовать программы копирования:
Занижение позиции Вашего сайта в выдачах поисковых систем, потому что ссылки могут вести не только на страницу, которая находится в поисковом индексе, чтобы может привести к потере индекса. Не используйте программы копирования.

Стоит разобраться в каких случаях может произойти дублирование данных, чтобы предотвратить все возможные последствия. Источники дублированного контента:
Служебные страницы
Страницы, которые предназначаются для распечатки
RSS-ленты новостей
Дублированный контент, созданный системой для управления сайта
Данная проблема решается запретом индексирований некоторых различных типов страниц Вашего web-сайта.

Как проверить контент web-сайта на наличие дублей данных?

Узнать есть в сети дубли страниц, которые Вы продвигаете или нету очень легко, сделать это можно с помощью некоторых способов:
Используя бесплатные программы копирования: advego plagiatus, double content finder, eTXT Антиплагиат.
Проверка в режиме online: antiplagiat.ru, istio.com, findcopy.ru, copyscape.ru
Используя поисковую систему. К примеру, чтобы поисковик Yandex показал для Вас всё, что скрыто от человеческих глаз, нужно написать “я ищу:” название сайта, который нужно проверить на дубли. В строку “на сайте:” в режиме расширенного поиска нужно вписать имя домена и нажать на кнопку поиска. Yandex покажет все сайты, которые имеют совпадения.

Что предпринимать, если дублированный контент был обнаружен на сайте?

Само собой, начинать нужно с генеральной уборки, то есть, удаления всего, что имеет дубли в сети. Если текстовые данные удалить нельзя, то нужно их закрыть от индексации в поисковой системе, помочь Вам в этом могут некоторые инструменты:
Мета-тег “robots” в коде html. Данный тег может обладать следующими атрибутами: index, что означает индексировать и noindex – не нужно индексировать, all – индексировать всё и none – ничего, а также follow – ссылки должны учитываться и nofollow – не должны учитываться. Этот тег очень прост в использовании, а также с его помощью для роботов поисковых систем можно указывать: индексировать страницу или не индексировать, а также можно следовать по размещенным ссылкам или нельзя.
Тег от Yandex “noindex”. Пользуясь этим тегом, Вы сможете закрыть от индексации абсолютно все части текстовых данных, расположенных на странице. Робот будет видеть этот текст, но не будет его учитывать.

Robots.txt.

Мы многократно рассказывали Вам о файле robots.txt. Сегодня хочется только напомнить о нем, и сказать, что данный текстовый документ находится в корневой папке сайта. В нем указываются некоторые специальные инструкции для роботов-поисковиков. Данные инструкции могут запрещать индексировать некоторые части, разделы или же страницы web-ресурса. С помощью этого файла можно указывать на главное зеркало web-сайта и рекомендовать роботу-поисковику соблюдать тот или иной интервал между скачиваниями документов с web-сервера.

Как видно из всего вышесказанного в борьбе с дублированным контентом сложного ничего нет. Появления этой проблемы можно вообще избежать, если во время создания сайта провести техническую оптимизацию web-страницы. Решить проблемы с дублированным контентом, поможет и карта сайта, это очень актуально для страниц, контент которых ежедневно обновляется и пополняется новыми данными.

Уникальные тексты – обязательный фактор во время продвижения любого сайта. Не стоит думать, что статьи, написанные своими руками или по заказу гарантированно решат проблему с дублированным контентом, но если устранить это проблему вовремя – Вы добьетесь заметных результатов в раскрутке сайта намного раньше.