Опечатка, но, суть и так понятна же)
Вопрос тогда в вашем понимании, а не в моем выражении мыслей
Под "блочить" подразумевалось "перекрыть от индексации"
Вы предложили способ clean-param
Мой способ: перекрыть ссылку
Мне видится алгоритм такой: робот будет перебирать каждую ссылку, сравнивать с параметром - удалять (при параметре clean-param)
Алгоритм 2: при указании прямой ссылки робот блочит ссылку сразу же, что значительно экономит время и нагрузку (возможно экономит, это алгоритм при Disallow: /ссылка)
И запрос уж robots.txt явно не нагружающий критически сервера, чтобы они падали, не утрируйте настолько
А техническое различие есть между перекрытием ссылки типа
Disallow: /catalog/aksessuary-instrumenty/instrumenty?items_per_page=24
И так 300-500 ссылок?
И существуют ли какие-либо нагрузки на robots.txt со стороны яндекса и вебмастера?
Ведь, по сути, что так поисковой робот доберется до прямой ссылки и удалит, что так найдет этот параметр и удалит