Petra7545

Рейтинг
3
Регистрация
12.12.2016

Спасибо всем за ответы. Ситуация такая, сайт переносили на https, также для него сделали новый дизайн, сейчас сайт с новым дизайном висит на поддомене. В вебмастере основного сайта пропал robots.txt. Что с этим делать, пока не могу понять. Создавать заново или подождать, пока новый сайт перенесут с поддомена?

Сделали, как советовали выше. Теперь у нас в урле не отображается алиас подкатегории товара и хлебные крошки в карточке товара также отображаются одинаковые вне зависимости от того, по какому пути пользователь пришел в карточку товара.

Например, если зайти в "Палас Сити-Лайф" сразу из категории "Паласы", урл и крошки будут такие же, как если зайти в него из подкатегории "Детские паласы": https://moscarpets.ru/catalog/palaces/палас-сити-лайф | Главная / Каталог / Паласы / Палас Сити-Лайф.

Такое формат приемлем для СЕО или нужно что-то менять?

Карта сайта - имеется в виду та, что для навигации? Не файл sitemep?

Спасибо! А символов 500 для текста с ключевиками на страницу - будет достаточно?

Спасибо за ответы. Советовалась с кодером, он говорит, если отображать товар в разных категориях, то урлы будут разные и расцениваться роботом будут как дубли

Можно зафиксировать урл для каждой страницы через код, но тогда он будет отображаться одинаково вне зависимости от того в какой категории его открыли. Хлебные крошки можно оставить как есть: отображаться будет тот путь как его прошёл клиент и тогда зафиксированный урл и крошки будут отличаться. Либо можно изменить алгоритм крошек и тогда они с урлом будут совпадать. Вот вопрос такой - обязательно ли чтобы крошки и урлы совпадали? И какой вариант лучше? Фиксированный урл или вариант 2 - чтоб менялись крошки?

Так все же как лучше, на кириллице или на латинице? Там большая часть на кириллице сейчас. Смысл все переделывать на латиницу?

---------- Добавлено 13.12.2016 в 11:46 ----------

А вообще разнородные урлы могут влиять на ранжирование?