Станислав Романенко

Станислав Романенко
Рейтинг
325
Регистрация
05.09.2007

Надо считать количество вхождений (например, тут - https://arsenkin.ru/tools/lemma/). Больше 2-3 вхождений - уже риск переспама. А вообще, люди на эту тему с докладами выступают - /ru/articles/49028

Zhezkazganetcs, вот тут при проверке в вебмастере что пишет?

User-Agent: * в роботсе есть? Выкладывайте его сюда.

В Яндекс.Вебмастере в разделе Инструменты - Анализ robots.txt - Разрешены ли URL что пишет при проверке таких урлов?

Сабрина87, фильтр-то, если и будет, то на сайте рекламодателя. У вас все будет в порядке.

Нет, не стоит. Во-первых, для них это не фильтр, а стандартная работа алгоритма, а во-вторых, накладывается и снимается он автоматом (через 2 недели после переиндексации незаспамленного текста).

hisbvdis:
— Аргумент "Против" (не уверен): поисковый робот регулярно будет гулять по огромному количеству страниц пагинации этой главной страницы, вместо того, чтобы индексировать те посадочные страницы, которые отвечают на нужные запросы посетителей. нужные запросы посетителей.

Можно оставить открытой для индексации только первую страницу пагинации (или первые две), а остальные закрыть.

Если просто написать "в Москве", то это не переспам. Если же использовать в тексте продвигаемый ключ с топонимом, то переспам.

У меня бывали такие случаи, когда из-за слишком маленького кэша на nginx-сервере в некоторых случаях при переходе из поиска выдавалась ошибка 403 (а если просто вбить URL в браузер, то ошибки не было). Но из индекса страницы не выпадали. Возможно, в вашем случае это привело к тому, что ошибка 403 стала отдаваться поисковому роботу.

Всего: 3558