Помогите определить фильтр Google и выявить недочеты на сайте

12
L
На сайте с 31.10.2012
Offline
15
#11
skoch:
Подозреваю что вы закрыли правилом:
Disallow: /*?*
Страницы
/?p=391

Это не правильно, с этих страниц нужно установить 301 редирект на новые страницы, со временем ПС заменят старые страницы, но вес их никуда не утеряется(возможно на старые адреса были ссылки)

Могло ли закрытие этих страниц в Robots привести к фильтру?

Сглупил поначалу, редирект-то с таких адресов на ЧПУшные на вордпресс автоматически настроился, но я зачем-то еще и в в роботсе индексирование по этим старым ссылкам запретил (думал, если не запретить - дублирование контента будет).

И все-таки еще раз уточню, не могло ли привести к фильтру то, что на сайте сразу массово были изменены урлы всех страниц (с автоматической настройкой редиректа)?

B
На сайте с 09.06.2012
Offline
58
#12
Lakhter:
Могло ли закрытие этих страниц в Robots привести к фильтру?
Сглупил поначалу, редирект-то с таких адресов на ЧПУшные на вордпресс автоматически настроился, но я зачем-то еще и в в роботсе индексирование по этим старым ссылкам запретил (думал, если не запретить - дублирование контента будет).

И все-таки еще раз уточню, не могло ли привести к фильтру то, что на сайте сразу массово были изменены урлы всех страниц (с автоматической настройкой редиректа)?

У вас просто ссылочная структура рухнула. Такие вещи лучше делать на начальных этапах продвижения. Требуется значительное время на переиндексацию, не делайте резких движений и потихоньку наращивайте ссылочное.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий