SEO: Дублирование контента

Здравствуйте, гости и подписчики блога 4remind.ru, предлагаю Вам снова отвлечься от написания скриптов, конфигурирования сайтов, и в очередной раз затронуть тему SEO. В этой статье мы рассмотрим проблему, касающуюся уникальности содержимого сайтов, плагиата, дубликатов статей, и в заключении посмотрим видеоматериал, касающийся этой тематики.

Дублирование контента сайта



Достаточно часто на нелегком пути к высоким позициям в выдачах поисковых систем появляется некая проблема, которая связана с дублированием информации и контента. Поисковые роботы негативно относятся к любым видам дублирования.

Почему дублирование информации вредно?

Дублирование информации частенько приводит к данным проблемам:
Понижение уровня сайта в поисковой выдаче. Программы копирования спали уже не один сайт. Купленные ссылки могут вести не только на страницы, которые имеют индекс в поисковике. В конце концов, Вы можете потерять индекс. Давайте разберемся, в каких случаях может случиться дублирование информации и контента на сайте или блоге, чтобы предотвратить возможные последствия. Чаще всего эти проблемы появляются из-за неуникального контента. Программы копирования помогут Вам в этом.

Источниками дублированного контента чаще всего являются:

1. Служебные страницы
2. Страницы, которые предназначены для печати
3. Специальные дубли контента, которые создаются системой управления (CMS)
4. Ленты RSS.

Данные проблемы, возможно решить, воспользовавшись запретами на индексацию, некоторых частей сайта и его страниц.

Как проверить Ваш сайт на наличие дублированной информации?

Узнать существуют дубли раскручиваемых страниц или нет можно тремя основными способами:

1. Проверка с помощью онлайн сервисов: antiplagiat.ru, copyscape.ru, istio.com.
2. Про помощи поисковых систем. К примеру, чтобы проверить наличие дубликатов в Yandex, надо ввести в поисковую строку: “я ищу:” название страницы, которую нужно проверить на дубли. А в строку: “на сайте:” в расширенном поиске вводим название самого сайта и нажать кнопку «найти». Яндекс выдаст абсолютно все страницы, которые имеют совпадения с Вашим сайтом.
3. С помощью специальных программ: Advego Plagiatus, eTXT Антиплагиат, Double Content Finder.

Что делать с дублированным контентом?

Всё должно начаться с «уборки» сайта. Удаляем весь ненужный, контент, который перестал приносить пользу и контент, с помощью которого продвигается сайт, но он имеет много дублей. Если текст Вы удалять не хотите, запретите его индексировать в поисковых системах с помощью файла robots.txt или мета-тег robots, который расположен в коде страницы. Данный тег может иметь следующие атрибуты: none – ничего не индексировать, follow – учитывать ссылки, noindex – не проводить индексацию, index – проводить индексацию, nofollow – не учитывать эти ссылки и all – индексировать всю информацию. Этот тег – очень простой инструмент, чтобы указывать поисковым роботам, проводить ли индексацию страницы или нет, а также можно ли последовать ссылкам, которые в ней уже размещены.

Еще один тег noindex. С его помощью можно закрывать любую часть информации или текста, которая размещена на странице. Поисковый робот её учитывать не будет.

Файл Robots.txt

Мы уже многократно рассказывали Вам о robots.txt. Хочется напомнить, что это обычный текстовый документ, но без него не обойтись. Он расположен в корневой папке сайта. В этом файле записываются специальные инструкции, которые читает каждый поисковый робот, зайдя к Вам на сайт в первую очередь. Инструкции могут запрещать индексировать какие-то файлы или информацию или наоборот. С помощью этого файла Вы сможете указывать основное зеркало сайта, а также заставить его соблюдать интервал, между тем как будут проводиться скачивания файлов с сервера сайта.

Как Вы заметили в борьбе с дублирующей информацией нет ничего сложного и сверх естественного. Эти проблемы можно просто обойти. Сразу после создания сайта нужно провести тех. оптимизацию. Чтобы решить данную проблему стоит создать карту сайта. Это действие имеет особенную актуальность для ресурсов, контент на которых обновляется ежедневно.

Уникальная информация – залог успеха, а точнее, это обязательно условие, не соблюдая которое, Вы не сможете добиться ничего, к сожалению. Во-первых, стоит определиться, где Вы будете брать уникальный контент. Программа копирования – возможно, тоже Вам поможет. Итак, стоит понимать, что если проблема с дублированием информации существует, даже уникальные, собственноручно написанные статьи могут не решить её. Надо обращаться к специалистам, только с их помощью Вы легко добьетесь поставленных целей.


Смотрите полный видеокурс на iTunes

Метки: , , ,
Другие статьи похожей тематики:

Поделитесь материалом с другими, воспользуйтесь этими кнопками:
Получать обновления и новые материалы блога по E-mail

4 комментария к “SEO: Дублирование контента”

  1. Простой:

    Такой вот вопрос возник. А нужно ли (как скрывать) скрыть такое: сайт.ру/2012/08?
    А то в яндекс вебмастере показывается, что это вот проиндексировалось: сайт.ру/2012/08.
    То есть как я понимаю архив в индексацию влез?

    • Самый простой способ запретить индексацию архивов — добавить в файл robots.txt:

      Disallow: /2012/
      Disallow: /2013/
      

      Можно так же для страниц архивов в их заголовок в тэг META добавлять параметр ‘noindex’. Только не путайте это с тегом Яндекса

      <!--noindex--><!--/noindex-->

      В заголовке (секция HEAD) страниц добавляется к примеру это:

      <META NAME="ROBOTS" CONTENT="NOINDEX> 
      

      Правда этот метод сложнее и обычно реализуется использованием скриптов, плагинов, например «All in One SEO Plugin» для WordPress.

  2. artis72:

    Хотелось бы понять, почему у Гугла полно дублей проиндексировано, а у Яшки нет.

    • Гугл охватывает весь мир и ему труднее видимо фильтровать дубли, а у Яндекса наиболее приоритетны русскоязычные ресурсы, которых естественно меньше, вот поэтому (ИМХО) Яшка более тщательно разгребает дубликаты.

Оставить комментарий

*

Подписаться на обновления блога 4remind.ru по RSS

Rambler's Top100
Рейтинг@Mail.ru


Яндекс.Метрика