Есть пруф? :)
Все зависит от ваших возможностей.
Самый правильный вариант:
1. Сформировать mind-map на основании поискового спроса (смотрите чего ищут, формируете группы запросов под каждый раздел и подраздел).
2. Разделить все группы запросов на "в категорию" и "в фильтр".
3. Научиться оптимизировать фильтры (см. фильтры в крупных интернет-магазинах).
Таким образом вы сможете охватить максимально много семантики. Это самый правильный вариант, но не самый простой.
P.S. Если что, у нас есть CMS в которой есть модуль с оптимизацией фильтров. Эта штука висит на Питоне и разработка у нас стоит не 10 тыс. рублей. Если есть бюджет - обращайтесь (тыщенок за 150-200 сделаем), если нет - ищите выход :) Битрикс вроде чего то похожее в последнем релизе сделали (но на Битрикс прогеры дорогие, те же деньги...).
Если есть хоть какие-нибудь бюджеты на разработку, то выбирайте Битрикс и не раздумывайте.
Если денег нет, то берите коммерческую систему управления, просто её бесплатную версию (например, HostCMS).
Бесплатные CMS ломают.---------- Добавлено 04.09.2015 в 15:53 ----------
А по уму, CMS должна выбирать компания, с которой вы собираетесь сотрудничать.
Вы реально считаете, что для ПС сложно определить сайты одной компании и аффилировать в автоматическом режиме? Попробуйте создать 2 похожих сайта и отслеживать идентичную семантику. Увидите, что один сайт тянет на себя одеяло в одних разделах, а другой в других.
Здесь вопрос в том, насколько корректно вебмастер может оценить аффилированность. Вы же понимаете, что этот фильтр мешает выдвинуть запросы в топ, а не режет трафик/позиции как многие другие, его действие заметить сложнее.
Конечно примеры будут, Яндекс делают люди:
1. Людям свойственно ошибаться.
2. Сложно создать идеальные алгоритмы.
Но всегда может наступить чудесный день разочарования.
P.S. У меня было множество случаев, когда люди просто копировали сайт. Он выглядел у них как говно и не работал должным образом. Но по некоторым запросам, такие сайты иногда вылезали вместо нашего. Было весьма забавно :) Я к тому, что Яндекс тоже не идеален.
Все страницы, которые перенесутся на новый сайт - клеем 301 (ну или url такой же).
С остальных страниц ставим 301 на максимально близкую по смыслу.
Объем работы большой, но что делать...---------- Добавлено 04.09.2015 в 15:39 ----------
Точно не нужно делать 404. Это будет жесть :)
Кхм, не просто.
Попробуйте найти/сформировать какой-нибудь информационный повод и скормить информацию в крупный информационный ресурс. Важно им указать, что информация им предоставлена полностью уникальная на эксклюзивных условиях. Мб они попробуют вогнать инфу в Яндекс Новости, тогда получите годный траф. А в целом у них частенько ошивается быстроробот, который сможет закинуть в индекс нужную инфу. Ну и много кто их можете отрерайтить и разместить похожую инфу у себя.
Под статистикой я подразумевал личный 4х летний опыт. Поверьте, многое повидал :)
Вот меня всегда мучил вопрос: зачем?
Я вижу здесь только 2 цели:
1. Побыстрей вогнать новые сайты в индекс.
2. Побыстрей загнать спиз***ый текст в индекс.
Может у вас какая-нибудь другая цель? Расскажите поподробней и может быть я смогу дать пояснение.
В SEO сложно быть в чем то точно уверенным :)
Есть статистика. На основании статистики я строю гипотезу.
Яндекс прекрасно высказал свою позицию в отношении 2+ сайтов у одной компании и я считаю, что против него не имеет смысла идти. Да и позиция весьма разумная.
Оставив 2 сайта есть риск попасть под аффилирование -> получать меньший органический трафик -> зарабатывать меньше денег. Зачем рисковать, если можно просто исправить проблему?
Можно сделать на одном сайте 2 раздела, например. И общие запросы будет проще продвигать.
Мне кажется, что поменять контакты на сайте не очень сложно. И если ваши ресурсы будут хуже ранжироваться из-за контактов проще об этом спросить и заменить. Телефон стоит 300 рублей в месяц с переадресацией, адрес соседнего офиса указываем.
Сайты будут аффелироваться по части запросов и это плохо.