Привет, Сереж! 🤝
Именно периодами - нет, потому что в общем срезе средний показатель возврата будет зависеть от объёма выборки.
В перечень факторов добавляется поисковая очередь, квота, структурная конфигурация, позиция в моменте, объём страниц, объем дублей, возможные технические ошибки, стат. факторы страницы, посещаемость и т.д. Т.е. ты гоняешься за совершенно ненужным показателем - это всё равно что анализировать статистику погоды и выводить средние значения по периодам наибольший отклонений атмосферного давления. Для статистики оно может и нужно, но для практического применения обычным людям бессмысленно.
По факту, как ранее исключённая страница набирает достаточно сигналов для повторного добавления в индекс (и как только до неё доходит очередь, среди прочих) - она появляется. В анализе отдельной страницы это может быть и день, и несколько дней, и неделя и месяц. Что даст тебе конкретика, когда одна страница A появилась на следующий день, а интересующая тебя страница Б только через неделю? Что будешь считать средним? У прочих страниц может быть свой период, который обусловлен вышеизложенными факторами.
Делюсь каждодневным опытом :) Рабочий вопрос должен звучать не "когда", рабочий вопрос должен звучать - "как и в каком объёме организовать работу, чтобы вернуть необходимую выпавшую массу страниц в индекс", причём не так, чтобы через неделю она опять выпала, а так чтобы постепенно уменьшать базу страниц BAD_QUALITY и LOW_DEMAND переводить их в рабочий актив сайта.
Тебя возможно интересует минимальный рабочий интервал, отвечу - были случаи, что и за сутки.
Сейчас залезу в рабочий проект, ну, вот, пожалуйста,
Два апа к ряду.
Я просто определяю рабочий перечень, провожу сортировку и приоритизацию и начинаю работу.
На небольших, но хорошо прокаченных сайтах - это может быть в интервале 2-3 суток, на каких-нибудь больших проблемных проектах, где половина страничного объёма могут быть разного рода дубли возврат может быть и неделю.
В сущности я делаю так. Обработал - отправил на переобход и всё. Дальше ждёшь результатов.
Прыгнуть выше головы сделать больше предела технических возможностей ПС ты всё равно не сможешь, поэтому делай максимум из того что тебе доступно и оценивай результаты.
Периоды самые, самые различные. Когда выполнишь с десяток подобных итераций в течение нескольких месяц, дальше уже сам будешь знать и примерно чувствовать усредненные показатели по конкретному сайту.
Если проблем с доступом нет, то не влияет.
И главное, отказов сумасшедшее количество 70% почти, в несколько раз больше чем на ручке.
Я думал ИИ какое-то время раскачивается, а получается что ещё бОльшая шляпа?
А как же. Яндекс и раскручивает эту рандомную рулетку, чтобы просадить результаты.
А вы негодуете про гарантия и обещания, какие уж тут обещания, если сам процесс со стороны Яндекса протекает абсолютно стихийно.
Не нужны, поэтому Яндекс и прекращает их использование.
Нет никаких низкокачественных ботов. Есть криво настроенный процесс накрутки, где ботов нагоняют, а результатов нет.
Это всё равно, что низкокачественный сотрудник, который не приходит на работу, а должен быть на рабочем месте.
Всё упирается в то, раскрывает ли видео пользовательский интент и побуждает ли его (пользователя) выполнять целевое действие.
Самое по себе видео, как объект фактором ранжирования не является.
Я советую вообще его убрать, чтобы он не занимал лишние ресурсы.
Всё верно. Именно такое решение я для себя тогда и нашёл. Но человек спрашивает про VPN сервисы.
Я бы на вашем месте отбросил LI и ориентировался на данные Метрики.
Но если вам принципиально разобраться в разнице - сужайте выборку до конкретного дня, берите анализатор логов и фактически сравнивайте сколько физических посещений было. Вероятно, LI часть посещений не учитывает.