Разделение большого проекта. Вопрос дублирования контента и поисковиков

S
На сайте с 04.06.2007
Offline
28
348

Здравствуйте, Уважаемые господа.

Подскажите по ситуации. Был большой проект с 10-ти летней историей. Часть проекта переезжает на отдельный сайт. Часть контента будет сдублирована.

На массированному контенту на новом проекте будет три раздела:

  • раздел 1: около 10 тысяч новых уникальных материалов (в сети были только заголовки до этого)
  • раздел 2: около 17 тысяч НЕ уникальных материалов (пресс-релизы, есть уже много где в сети)
  • раздел 3: около 40 тысяч частично уникальных материалов от проекта источника.

Вопрос 1: как отнесутся поисковые системы к такому количеству неуникального контента? Если работают фильтры в поисковиках, то может вообще не имеет смысл тащить раздел с неуникальным контентом.

Вопрос 2: Новый сайт с десятками тысяч страниц, это с точки зрения поисковика вообще как?

Вижу следующие варианты: перенести только уникальный контент, перенести все подряд и закрыть дубли от индексирования, забить и просто перенести все подряд.

Задача конечно максимально выиграть в глазах поисковиков.

P.S. Только что проверял как воспринимают Яндекс дублированные статьи. При вводе в поиск заголовка страницы, выдает все сайты где она есть, ранжируя видимо по весу сайта. А при вводе куска текста, выдает только самый "жирный" сайт, хотя он точно опубликовал статью позже чем мой первоисточник ("жирный" сайт прямую ссылку не поставил).

Благодарю всех, кто сможет посоветовать из личного опыта или теории.

87793
На сайте с 12.09.2009
Offline
661
#1

Вижу вариант перенести всё, что Вы хотите перенести, и закрыть дубли (т.е. то, что было на старом месте) от индексирования.

При этом на старых страницах непременно надо дать ссылку на новое местоположение.

Так я уже делал (правда, не такого объёма был сайт). Отщеплял раздел большого сайта на сателлит.

На части старых страниц я закрывал в noindex всё, кроме ссылки на копию страницы на новом сайте. А на части - в мета-теге "Robots" ставил "noindex,follow" (т.е. содержимое страницы не индексировать, но по ссылкам с него ходить).

После этого надо было отучить Яндекс (а прежде всего о нём речь, поскольку с него был основной трафик) искать соответствующие вещи на старом сайте и научить искать на новом. Делалось это так: я вбивал в Яндекс те запросы, по которым эти страницы находились, тыкал на "сохранённую копию" и в сохранённой копии переходил по ссылке на новый сайт (впрочем, написал сейчас и усомнился: а в "сохранённой копии" ссылка-то на новый сайт уже была? Но сохранённую копию открывал точно. Если в сохранённой копии был старый вариант - в найденной странице (основном результате поиска) тыкал на ссылку на соответствующую страницу нового сайта).

Через сутки переходы по соответствующим запросам с Яндекса шли уже на сателлит, а не на основной сайт.

Наше дело правое - не мешать левому!
S
На сайте с 04.06.2007
Offline
28
#2

Интересная методика по дублированным страницам, спасибо.

87793:
Вижу вариант перенести всё, что Вы хотите перенести, и закрыть дубли (т.е. то, что было на старом месте) от индексирования.
При этом на старых страницах непременно надо дать ссылку на новое местоположение.

А если не получится на старом сайте потереть дубли, тут фактор огромного объема играет. Получается с точки зрения переходов пользователей это бесполезно тысячи страниц копировать, только если для информационного наполнения, так?

87793
На сайте с 12.09.2009
Offline
661
#3

Я не говорил про потереть дубли, я говорил закрыть их от индексирования.

Насчёт фактора огромного объёма - если есть возможность выполнить объём работы по выкладке соответствующего количества материалов на новый сайт, то должна найтись и возможность закрыть от индексирования (да даже и потереть, если это будет сочтено уместным) соответствующие материалы на старом сайте.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий