secret12, Насчет компаний на основном домене - это самое первое что приходит в голову при разработке сайта. Но вы же зачем-то начали заморачиваться с поддоменами :)
По поводу дублей - да, частично были бы дублями.
Но это не тот случай, где я бы с фанатичностью гнался за уникальностью.
Но если переживаете по этому поводу, то можно выделить головной офис (обычно он 1 и в 1 городе). Следовательно остальные города закрыть от индексации. Оставить их просто для того, чтобы пользователи видели контакты/адреса в своем городе.
А можно вообще не париться и выделить головной офис - он и будет на нужном поддомене, например msk.site.ru/category/company
А там же будут просто указаны дополнительные филиалы с контактными данными.
Вот уже 3 варианта :)
Причем последний самый ненапряжный.
stardel, варианта 3:
1) Мегаиндекс, xtool, sbup, pr-cy и прочие сервисы экспресс-анализа сайта. Показывают иногда откровенную чушь, погрешность от XX% до ∞. Зато быстро и думать не надо, да и бесплатно.
2) spywords, prodvigator, semrush - платно, думать тоже много не надо. Более качественно. Погрешность ниже.
3) Парсинг и анализ тайтлов, переработка, вычленение оттуда запросов и снова парсинг, но теперь водстата, а потом сбор позиций по ключам. Бесплатно, четко, погрешность относительно конкретных запросов нулевая, но надо думать и тратить время.
P.S. через коллектор можно сделать очень много, но это лишь инструмент, а не ИИ который все сделает за вас. Он просто парсит заданные источники (платные и бесплатные).
Teh.Nik, лучше такие тонкости спрашивать на форуме программистов все же.
А чем вас не устроило 2 последовательных редиректа? Они функционируют и проще для понимания.
Mellifleur, я вам скажу больше - даже шаблоны страниц внутри сайта могут быть размечены по разному ;)
А так - да, суть как в хтмл5, вы даете четкие имена блокам, которые ПС может подцепить для себя в зависимости от типа блока.
Pahom-ka, если хотите чтобы вам помогли покажите сайт и конкретно 2 проблемные страницы.
AndreyChehov,
нужно было сначала в роботсе указать новое зеркало, дождаться смены, а потом сделать редирект.
Зеркальщик у Яндекса и так не особо быстрый и умный, а тут он получал 301 редиректы и не мог считать инфу о главном зеркале долгое время.
Я бы написал платонам еще, быть может помогут.
GlebEGA,
вы бы сайт показали для начала.
87793,
удобство при копировании урла - как-то приятнее.
+ есть люди, которые шарахаются, когда видят ссылку аля "xn--82aaafzhu08b7qf.xn--p1ai/%D0%AD%D0%BD%D1%86%D0%B8%D0%BA%D0%BB%D0%BE%D0%BF%D0%B5%D0%B4%D0%B8%D1%8F"
Безусловно - все это лишь личное мнение, основанное на личных наблюдениях.
Demansh, Да пофигу вообще :)
Гугл хавает все подряд, Яндекс может схавать копию, а оригинал нет.
Проблем с ПСами не будет.
Зато легко могут быть проблемы с законом и разборки в суде за использование материалов сайта (если это запрещено на сайте) + за коммерческое использование добавят проблем.
Сталкивался с данной ситуацией 1 раз, когда сайт салона красоты делали. Никто не предполагал, что клиент скачал картинку в гугле, а оказалось что это реальное фото конкурирующего салона в том же городе :)
poison45,
Отвечу как Платоны:
С вашим сайтом все впорядке. Развивайте сайт.
Если контент выходит ежедневно (или несколько раз в день даже) - то поддерживайте темп + имеет смысл заняться кросспостингом в соц. сети, в частности Твиттер/ЖЖ.