Mihail_1995

Рейтинг
0
Регистрация
11.10.2018
sanek1991:
Если на каждой странице 12 карточек, то на второй странице соответственно тоже должно быть 12 карточек, а не 24 ))

Опечатка, но, суть и так понятна же)

Miha Kuzmin (KMY):
Вы научитесь выражать мысли не раком.

Вопрос тогда в вашем понимании, а не в моем выражении мыслей

Miha Kuzmin (KMY):

Чего делает?
Чего сделать?

Под "блочить" подразумевалось "перекрыть от индексации"

Miha Kuzmin (KMY):
Mihail_1995, слова вроде в посте все понятные, но смысла я в них не уловил. Ну кроме зачота про "нагрузку на robots.txt". Гет-запрос на роботс ну максимум несколько раз в сутки (а обычно 1 или 0) - это вам не хухры мухры, вдруг сервер упадет, или яндекс.

Вы предложили способ clean-param

Мой способ: перекрыть ссылку

Мне видится алгоритм такой: робот будет перебирать каждую ссылку, сравнивать с параметром - удалять (при параметре clean-param)

Алгоритм 2: при указании прямой ссылки робот блочит ссылку сразу же, что значительно экономит время и нагрузку (возможно экономит, это алгоритм при Disallow: /ссылка)

И запрос уж robots.txt явно не нагружающий критически сервера, чтобы они падали, не утрируйте настолько

Miha Kuzmin (KMY):
Clean-param в роботс, и все.

А техническое различие есть между перекрытием ссылки типа

Disallow: /catalog/aksessuary-instrumenty/instrumenty?items_per_page=24

И так 300-500 ссылок?

И существуют ли какие-либо нагрузки на robots.txt со стороны яндекса и вебмастера?

Ведь, по сути, что так поисковой робот доберется до прямой ссылки и удалит, что так найдет этот параметр и удалит