Почему в Яндексе Вебмастере не все заявки на удаление страниц выполняются?

F
На сайте с 02.09.2019
Offline
51
489
Подскажите, почему в Яндексе Вебмастере не все заявки на удаление страниц выполняются?
У меня много страниц отклонено на удаление из поиска. Страницы разделов: page=2, page=3 и т.д.

До этого не закрыл их в robots.txt. Сейчас закрыты.

Код этих страниц 200 SEARCHABLE


Ali93
На сайте с 21.12.2021
Offline
42
#1
finisher :
Подскажите, почему в Яндексе Вебмастере не все заявки на удаление страниц выполняются?
У меня много страниц отклонено на удаление из поиска. Страницы разделов: page=2, page=3 и т.д.

До этого не закрыл их в robots.txt. Сейчас закрыты.

Код этих страниц 200 SEARCHABLE


Потому что он удаляет страницы с кодом 404. Если страница существует, то не удалит.

Vladimir SEO
На сайте с 19.10.2011
Offline
1710
#2
finisher :
До этого не закрыл их в robots.txt. Сейчас закрыты.
вы закрыли от сканирования, а не от индексации, что бы закрыть пагинацию надо мета тег ноиндекс фоллоу.
Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
alaev
На сайте с 18.11.2010
Offline
694
#3
Vladimir SEO #:
вы закрыли от сканирования, а не от индексации, что бы закрыть пагинацию надо мета тег ноиндекс фоллоу.

Директивой disallow закрывают от индексации😁

https://yandex.ru/support/webmaster/yandex-indexing/removing-from-index.html

Создание и продвижение сайтов - https://alaev.net , аудиты сайтов, контекстная реклама
alaev
На сайте с 18.11.2010
Offline
694
#4
finisher :
Подскажите, почему в Яндексе Вебмастере не все заявки на удаление страниц выполняются?
У меня много страниц отклонено на удаление из поиска. Страницы разделов: page=2, page=3 и т.д.

До этого не закрыл их в robots.txt. Сейчас закрыты.

Код этих страниц 200 SEARCHABLE


Глючит, не сразу может удалять.

Если все верно прописано, то удалить заново. Лучше удалять по маске, а не по отдельному урл.

Антоний Казанский
На сайте с 12.04.2007
Offline
617
#5
finisher :
Подскажите, почему в Яндексе Вебмастере не все заявки на удаление страниц выполняются?
У меня много страниц отклонено на удаление из поиска. Страницы разделов: page=2, page=3 и т.д.

До этого не закрыл их в robots.txt. Сейчас закрыты.

Код этих страниц 200 SEARCHABLE

Пробуйте ещё раз. И убедитесь, что правила robots точно покрывают эти страницы (в Вебмастере можно проверить).

p.s. Иногда Яндекс может глючить, поэтому настойчивость и повторные действия нередко решают вопрос.

p.s.p.s. Также конкретную ситуацию можно обсудить с Платоном. 

У меня многократно так было - вижу какую-то явную аномалию в Яндексе, убеждаюсь, что она устойчиво и не зависит от моих действий - пишу в Яндекс, через неделю вопрос закрыт. Так что возможностью общения с тех. поддержкой тоже надо пользоваться. 

√ SEO продвижение https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Обучение автоматизации с помощью Zennoposter https://goo-gl.me/6Zypu
Александр
На сайте с 18.03.2020
Offline
144
#6
Vladimir SEO #:
вы закрыли от сканирования, а не от индексации, что бы закрыть пагинацию надо мета тег ноиндекс фоллоу.

Все верно, пока ноиндекс фоллоу не прописал Яндекс так и толкал туда-сюда страницы пагинации.
Полгода с ними бодался.
Роботс игнорируют - хоть обзакрывайся там.

Александр
На сайте с 18.03.2020
Offline
144
#7
alaev #:
Директивой disallow закрывают от индексации😁

Я в ПМ тебе писал об этом весной, Яндекс индексирует, наплевав на директиву :D

https://searchengines.guru/ru/forum/1075770

Код, который работает с популярным плагином Yoast SEO, прописывает noindex, follow

/* Yoast SEO -  add noindex, follow for paginated pages */
function filter_wpseo_robots( $robotsstr ) {
    if ( is_paged() ) {
        return 'noindex, follow';
    }

    return $robotsstr;
}

add_filter( 'wpseo_robots', 'filter_wpseo_robots' );
Запрет индексировать пагинацию в Яндекс - Яндекс - Поисковые системы - Форум об интернет-маркетинге
Запрет индексировать пагинацию в Яндекс - Яндекс - Поисковые системы - Форум об интернет-маркетинге
  • 2023.12.07
  • searchengines.guru
Проблема тянется с января. В вебмастере было оповещение, что страницы пагинации имели одинаковый тайтл и дескрипшен (и там перечислены страницы...
Vladimir SEO
На сайте с 19.10.2011
Offline
1710
#8
alaev #:

Директивой disallow закрывают от индексации😁

https://yandex.ru/support/webmaster/yandex-indexing/removing-from-index.html

С разбегу и прямо в лужу?))) читать надо не по диагонали. Написано - если страница удалена то запрет на скан в роботсе. А страница должна отдавать 404/410 И так далее

А если нет то мета роботс: и научись читать до конца - там табличка будет интересная


alaev
На сайте с 18.11.2010
Offline
694
#9
Vladimir SEO #:

С разбегу и прямо в лужу?))) читать надо не по диагонали. Написано - если страница удалена то запрет на скан в роботсе. А страница должна отдавать 404/410 И так далее

А если нет то мета роботс: и научись читать до конца - там табличка будет интересная


Так ты и научись читать до конца и вникать в детали 😁

https://yandex.ru/support/webmaster/robot-workings/allow-disallow.html#allow-disallow__disallow


alaev
На сайте с 18.11.2010
Offline
694
#10
Александр #:

Я в ПМ тебе писал об этом весной, Яндекс индексирует, наплевав на директиву :D

https://searchengines.guru/ru/forum/1075770

Код, который работает с популярным плагином Yoast SEO, прописывает noindex, follow

Они и на зеркалах сайтов, которые отдают 301 редирект на главное зеркало, умудряются что-то индексировать.

Там-то куда писать метатеги?)))

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий