Спасибо всем за ответы. Ситуация такая, сайт переносили на https, также для него сделали новый дизайн, сейчас сайт с новым дизайном висит на поддомене. В вебмастере основного сайта пропал robots.txt. Что с этим делать, пока не могу понять. Создавать заново или подождать, пока новый сайт перенесут с поддомена?
Сделали, как советовали выше. Теперь у нас в урле не отображается алиас подкатегории товара и хлебные крошки в карточке товара также отображаются одинаковые вне зависимости от того, по какому пути пользователь пришел в карточку товара.
Например, если зайти в "Палас Сити-Лайф" сразу из категории "Паласы", урл и крошки будут такие же, как если зайти в него из подкатегории "Детские паласы": https://moscarpets.ru/catalog/palaces/палас-сити-лайф | Главная / Каталог / Паласы / Палас Сити-Лайф.
Такое формат приемлем для СЕО или нужно что-то менять?
Карта сайта - имеется в виду та, что для навигации? Не файл sitemep?
Спасибо! А символов 500 для текста с ключевиками на страницу - будет достаточно?
Спасибо за ответы. Советовалась с кодером, он говорит, если отображать товар в разных категориях, то урлы будут разные и расцениваться роботом будут как дубли
Можно зафиксировать урл для каждой страницы через код, но тогда он будет отображаться одинаково вне зависимости от того в какой категории его открыли. Хлебные крошки можно оставить как есть: отображаться будет тот путь как его прошёл клиент и тогда зафиксированный урл и крошки будут отличаться. Либо можно изменить алгоритм крошек и тогда они с урлом будут совпадать. Вот вопрос такой - обязательно ли чтобы крошки и урлы совпадали? И какой вариант лучше? Фиксированный урл или вариант 2 - чтоб менялись крошки?
Так все же как лучше, на кириллице или на латинице? Там большая часть на кириллице сейчас. Смысл все переделывать на латиницу?---------- Добавлено 13.12.2016 в 11:46 ----------А вообще разнородные урлы могут влиять на ранжирование?