Надо считать количество вхождений (например, тут - https://arsenkin.ru/tools/lemma/). Больше 2-3 вхождений - уже риск переспама. А вообще, люди на эту тему с докладами выступают - /ru/articles/49028
Zhezkazganetcs, вот тут при проверке в вебмастере что пишет?
User-Agent: * в роботсе есть? Выкладывайте его сюда.
В Яндекс.Вебмастере в разделе Инструменты - Анализ robots.txt - Разрешены ли URL что пишет при проверке таких урлов?
Сабрина87, фильтр-то, если и будет, то на сайте рекламодателя. У вас все будет в порядке.
Выдача обычная российская - https://yandex.kz/search/?lr=163&msid=1503681979.52224.20957.7916&text=%D0%BA%D0%B0%D0%BA%20%D0%B2%D1%8B%D0%B1%D1%80%D0%B0%D1%82%D1%8C%20%D0%BC%D0%B5%D0%B1%D0%B5%D0%BB%D1%8C
Нет, не стоит. Во-первых, для них это не фильтр, а стандартная работа алгоритма, а во-вторых, накладывается и снимается он автоматом (через 2 недели после переиндексации незаспамленного текста).
Можно оставить открытой для индексации только первую страницу пагинации (или первые две), а остальные закрыть.
Если просто написать "в Москве", то это не переспам. Если же использовать в тексте продвигаемый ключ с топонимом, то переспам.
У меня бывали такие случаи, когда из-за слишком маленького кэша на nginx-сервере в некоторых случаях при переходе из поиска выдавалась ошибка 403 (а если просто вбить URL в браузер, то ошибки не было). Но из индекса страницы не выпадали. Возможно, в вашем случае это привело к тому, что ошибка 403 стала отдаваться поисковому роботу.