Разница с точки зрения браузеров
https://developer.mozilla.org/ru/docs/Web/HTTP/Status/307
Если документ открывается после переадресации с 302, то при запросе страницы методом POST метод запроса может быть изменен на GET,
а в случае с 307 - нет (если запрошено методом POST - то и работает через метод POST, нельзя изменить его на GET).
С точки зрения все просто - допустимо использование только 1 редиректа - 301.
Иначе - страницы должны отдавать либо 200 ОК, либо 404.
а как бы трафик по запросам вида "товары+отзывы"?
нет, не нужен?
Да пожалуйста.
Чудеса в этой сфере не происходят.
дубль и неканоническая страница - это 2 разных понятия.
плохи не для ПС, а для вашего сайта - создают риск понижения уникальности контента страницы.
Сложно получить, но можно потерять.
Насколько я понимаю, Google может удалить его только по усмотрению алгоритма.
а зачем начинать историю заново?
Вам нужна только Микроразметка REVIEWS.
Дальшейшее формирование сниппетов - работа алгоритма.
там было написано
может фильтры, а может оптимизация, а может ключевики и структура, а может ошибки в коде , а может рак свиснул на горе не в вашу сторону )) разговор не о чем
и действительно, нельзя на основании данной информации диагностировать больше.
вот это - более важный комментарий. Допускаю, что в принципе, сделано все без ошибок, но без оценки текущего ТОПа.
Сравните свой сайт с сайтами-конкурентами по ТОПам.
возможно, появятся и идеи, как улучшить ПФ (но тут нужно время на накопление данных, они формируются за длительный период).
Если все же опасаетесь реальных/мнимых санкций, никто не запрещает написать Платону. Они иногда отвечают, пробуйте писать.
Спасибо, для бесплатного софта очень даже неплохо.
hpkone,
Это где?
где вы видите здесь хоть 1 мысль о санкциях? (или, как вы их называете "фильтры")?
Я думаю по тому, как вы не смогли прочесть моего ответа, так же вы и не смогли определить есть ли санкции или нет.
Не увидели черную кошку в темном зале (тем более, если ее там нет).
Я вам подскажу одно направление мысли - если бы все оптимизированные сайты были в ТОПе, то их было бы не более 10 на запрос. Видимо, одной базовой оптимизации (в том виде, в котором вы ее понимаете), недостаточно.
Тем более, что могли быть допущены ошибки.