robots.txt,,дубли, фильтры, ajax, rel=canonical

NM
На сайте с 13.12.2010
Offline
49
423

Здравствуйте, занимаюсь оптимизацией сайта vizit-dv.ru столкнулся с проблемой в robots.txt:

Робот видит много дублей, засчет разных фильтров

Например на странице /mezhkomnatnye-dveri пагинация сделана через AJAX, и фильтры тоже, ссылки приобретают вид "/vhodnie-dveri?*****"

Я заблочил страницы вот эти страницы, чтобы не было дублей

Disallow: /vhodnie-dveri?

Disallow: /mezhkomnatnye-dveri?

Но теперь робот не может посмотреть каждый товар например на стр. 2 /mezhkomnatnye-dveri?&&&price[min]=&price[max]=&&sort_by=field_basket_price&page=1

При переходе на другие страницы каталога, адрес сайта не меняется.

Тестирую с как смотрит робот помощью PageWeight, вроде можно решить проблему с помощью rel=canonical?

Почитал, что

мы должны на странице каталога задать страницам "‹ предыдущая" "следующая ›" rel="next" и rel="prev"

а кнопкам 1, 2 , 3 страницы тоже rel="canonical", но только эти страницы на Ajax и я не знаю как это сделать

/ru/news/15197

https://support.google.com/webmasters/answer/139066?hl=ru#2

https://support.google.com/webmasters/answer/1663744?hl=ru

Подскажите как правильно решить этот вопрос?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий