Бототраф? Они тоже умеют отправлять страницы в МПК. Не все умеют, но умеют и в основном топовые
Подключаю коллег из отдела аналитики, проверим работу алгоритмов — нормально ли они функционируют, не было ли сбоев. Когда появятся новости, вернусь к вам.
Они там так накосячили, что сами не могут разобраться?
Кто именно накосячил? И что вы хотите от них услышать?Вам отвечает один отдел, подключают другой, а алгоритмы внедряют третьиНу доберетесь вы до третьих, толку? Выше читайте комментарии...через месяц, неделю, день автомат опять отправит в пешее путешествие.
Яндекс мог всем сайтам прислать письмо и порекомендовать сделать такие настройки или другие.
Опять же многие удаленные страницы и дубли висят в базе Яндексе месяцами. И он их не удаляет.
У Вас небольшой проект. Поэтому принять что все проблемы улучшаться через Ваши рекомендации нельзя. Хотя может быть как-то и сыграют.
- Что? вам Яндекс обязан рекомендовать, делать то, что вы должны сделать на этапе его программирования?- Месяцами? К примеру - боты индексирования и бот robots, разные боты ( скорее всего разные отделы). А так как у вас исчерпан лимит, исправления из отдела в отдел отправляют в бумажном виде и с черепахой))- Что, Вы видели мой проект, шутите? 🤣Рекомендации самые простые, не пеняйте на дубли на чужих сайтах, начните с дублей на своих.Рекомендации по дублям ( копиям) на чужих сайтах, на серче прописывали лет 15 назад. Правда потом отказались, потому, что они не сработали, а нужно было доработать.
Все просто
Впереди в выдаче ДЗЕН
А ваш сайт, с которого тексты были скопированы в Дзен 1. но индекс2. в ж ... выдачи
Дзен - управляемая площадка рекламы, а ваш сайт - ... ну ответ вы знаете
2. Сколько страниц на сайте. Есть сумма которая яндекс затрачивает на обработку и хранение в своей базе. Если страниц очень много и затраты Яндекса превышает
1. Какая разница сколько страниц на сайте?Уменьши нагрузку для Яндекса, поставь правило ( скорость обхода при этом максимальная) обходить не весь сайт, а только новые страницы и измененияИ все! Весь лимит затрат Яндекса на твой сайт ты не тратишь. Независимо от того сколько у тебя страниц
2. Это удаление всех дублей с сайта, а не закрытие из в robots или надеяться на каноникалв том числе и такие дубли /?utm=метки, т.е те которые создает сам Яндексили создает бототрафик ( желательно проанализировать зачем он их создает)PS На сайте сотни тысяч страниц - Яндекс индексирует новые, и делает изменения практически мгновенно.
Судя по вашим комментариям, вы крутой SEO (не сарказм). И если ваши ресурсы попали под МПК, то тут уже явно проблема в алгоритмах Яши. (Но это не точно).
Кому известна?
Причем о причинах такой малополезности известно только Яндексу.
Причина такой малополезности известна лет 15, точно так же как и в Гугл ( называется только по другому)
Влияние бототрафа. Скорее всего не могут понять как они топят. Фильтра то нет, а вылет страниц из топа за сотню есть. Ну и у них задачи нет в этом разбираться
PS Ну и когда вам пишешь на сайте не должно быть дублей. Вы все хором начинаете спорить, что можно закрыть в robots или каноникал. Ну так и закрывайте дальше.
Уже применяют, судя по выдаче 🤣
Естественно применяют, в том числе в эту же сторону работает и бототраф с хорошим ПФЭто к вашим выводам - "если ПФ у бототрафа хороший, можно не обращать внимания"