Andrew Z

Рейтинг
2
Регистрация
31.01.2026
Сео оптимизатор partnertorg.com
LEOnidUKG #:
Нет, они должны вести на основной раздел, откуда они фильтр этот берут. Главная тут не при чём.
Я это и имел ввиду.
LEOnidUKG #:

Если они не нужны в индексе то:

1. Используйте canonical

2. На фильтрах используйте meta robots = noindex,nofollow

robots.txt можно вообще не трогать при этом.

На сколько я знаю данные страницы(https://partnertorg.com/mebel-dlya-vannoy-komnaty?s[cvet_956][0]=191355509) лучше склеивать для веса с главной страницей, или нет? Но учитывая то, что система формирует таких страниц десятки, а то и сотни, перечислять их все вручную в robots.txt для директивы Clean param - невозможно. В этом и вопрос. 
eByeBots #:
Вам уже предложил все возможные решения)
Не густо, однако...
eByeBots #:
да всё так, мне просто интересно кто Вам предложил ставить в РФ клауд,
там конечно есть возможность что бы он работал, но это упирается в бюджет хороший или костыли..)

Разработчик сайта посоветовал, не знаю в курсе он блокировки РКН или нет...Так что в итоге посоветуете?

eByeBots #:
Бороться. Клауд не для РФ, а кто советует? можно блокировать через .htaccess бесплатно / nginx, или воспользоваться готовыми решениями. Как вариант аналог клауда - прокси сервер на отдельном VPS и фильтрация там.
cloudflare на сколько мне известно, РКН блокирует... или не правда?
Vladimir #:
Это и есть мусор

Давно этот мусор на нормальных сайтах уже не генерерируется, а меняются только данные на странице при запросах

Вы уже согласились года 4 назад, что ни Canonical, ни Clean-param не запрещают не только ходить и анализировать, но и индексировать страницы выкидывая из индекса нужные страницы.

Естественно Яндекс как и сейчас ИИ - извиниться за ошибку и будет ее исправлять. Вопрос только во времени.

PS И все равно тащите на форум теорию из Яндекса? 

Так что в итоге посоветуете?