Vladimir

Vladimir
Рейтинг
614
Регистрация
07.06.2004
Интересы
Photo
samimages #:
Фильтр прилетел на новостник, всплеск трафа был за несколько дней до того как

Бототраф? Они тоже умеют отправлять страницы в МПК. Не все умеют, но умеют и в основном топовые


Steve Rambo #:

Подключаю коллег из отдела аналитики, проверим работу алгоритмов — нормально ли они функционируют, не было ли сбоев. Когда появятся новости, вернусь к вам.


Они там так накосячили, что сами не могут разобраться?

Кто именно накосячил? И что вы хотите от них услышать?
Вам отвечает один отдел, подключают другой, а алгоритмы внедряют третьи
Ну доберетесь вы до третьих, толку? Выше читайте комментарии...через месяц, неделю, день автомат опять отправит в пешее путешествие.


avangard #:

Яндекс мог всем сайтам прислать письмо и порекомендовать сделать такие настройки или другие.

Опять же многие удаленные страницы и дубли висят в базе Яндексе месяцами. И он их не удаляет.

У Вас небольшой проект.  Поэтому принять что все проблемы улучшаться через Ваши рекомендации нельзя. Хотя может быть как-то и сыграют.

- Что? вам Яндекс обязан рекомендовать, делать то, что вы должны сделать на этапе его программирования?
- Месяцами? К примеру - боты индексирования и бот robots, разные боты ( скорее всего разные отделы). А так как у вас исчерпан лимит, исправления из отдела в отдел отправляют в бумажном виде и с черепахой))
- Что, Вы видели мой проект, шутите? 🤣
Рекомендации самые простые, не пеняйте на дубли на чужих сайтах, начните с дублей на своих.
Рекомендации по дублям ( копиям) на чужих сайтах, на серче прописывали лет 15 назад. Правда потом отказались, потому, что они не сработали, а нужно было доработать.

Datot #:

Все просто

Впереди в выдаче ДЗЕН

А ваш сайт, с которого тексты были скопированы в Дзен
1. но индекс
2. в ж ... выдачи

Дзен - управляемая площадка рекламы, а ваш сайт -  ... ну ответ вы знаете

Дзен элементарно обходится в выдаче, даже если он полная копия вашего сайта
Спрашивается, если сменилась выдача, какого вы пишете платонам, на серче, вместо анализа выдачи?

PS Кстати, спасибо за ответ на вопрос ( ответ уже давно нашел), но подтверждение тоже важно 🙏
avangard #:

2. Сколько страниц на сайте. Есть сумма которая яндекс затрачивает на обработку и хранение в своей базе. Если страниц очень много и затраты Яндекса превышает 

1. Какая разница сколько страниц на сайте?
Уменьши нагрузку для Яндекса, поставь правило ( скорость обхода при этом максимальная) обходить не весь сайт, а только новые страницы и изменения
И все! Весь лимит затрат Яндекса на твой сайт ты не тратишь. Независимо от того сколько у тебя страниц

2. Это удаление всех дублей с сайта, а не закрытие из в robots или надеяться на каноникал
в том числе и такие дубли /?utm=метки, т.е те которые создает сам Яндекс
или создает бототрафик ( желательно проанализировать зачем он их создает)

PS На сайте сотни тысяч страниц - Яндекс индексирует новые, и делает изменения практически мгновенно.

dmoff #:

Судя по вашим комментариям, вы крутой SEO (не сарказм). И если ваши ресурсы попали под МПК, то тут уже явно проблема в алгоритмах Яши. (Но это не точно). 

Кто вам сказал, что мои ресурсы попали под МПК?

В данной теме потому, что кроме плача и нытья и нажатия кнопок, в комментариях всегда есть полезная инфа, которая расширяет статистику и дает направление для проверки.



spanjokus #:
завел еще с утра два тикета ни на один не ответили
Хорошо, еще один пример. Сколько раз писал, уменьшите нагрузку на Яндекс🤣
Ну и на свои хостинги тоже.
Используйте last-modified.
Мне в ответ Яндекс не учитывает...А, погуглить, чтобы учитывал?

Это увеличивает обход измения сайтов  в разы, уменьшая нагрузку.
И не ждать когда же бот обойдет ваш сайт после нажатия кнопки.


Alex_Black48 #:

Кому известна?

Например мне , а вам нет? сочувствую
Например одна выше в комментарии описана, или вам все надо привести, чтобы вы свои сайты исправили?

Ну хорошо следующая:
Вы сами плодите дубли и МПК вместе с Яндексом
/?utm= метки это дубли ваших страниц
Не надо только мне опять про роботс, лучше  вебмастер проанализируйте
В котором можно встретить  страница/?utm= проиндексирована и в поиске
а основная страница МПК!!! Через сколько времени Яндекс исправиться обнаружив запрет в роботс???
Все это время ваша страница на вылете за сотню из топа. И сколько таких страниц?

Alex_Black48 #:

Причем о причинах такой малополезности известно только Яндексу.

Причина такой малополезности известна лет 15, точно так же как и в Гугл ( называется только по другому)

TheVS #:
Влияние бототорафа на ПФ ...первоисточники топятся,
Яндекс распознать эти действия не в силах

Влияние бототрафа. Скорее всего не могут понять как они топят. Фильтра то нет, а вылет страниц из топа за сотню есть. Ну и у них задачи нет в этом разбираться

PS  Ну и когда вам пишешь на сайте не должно быть дублей. Вы все хором начинаете спорить, что можно закрыть в robots или каноникал. Ну так и закрывайте дальше. 

Alamo #:

Уже применяют, судя по выдаче 🤣

Естественно применяют, в том числе в эту же сторону работает и бототраф с хорошим ПФ
Это к вашим выводам - "если ПФ у бототрафа хороший, можно не обращать внимания"

Всего: 8951