Сереж, неудивительно, когда годами на сайте бесконтрольно за раз заливают десятки тысяч товаров, ничего не удаляется и не клеится + всё это по взаимным дублям раздувается на порядки, то естественно доля рабочих страниц которым ПС будет уделять внимание будет со временем уменьшаться.
К сожалению, исправить в одночастье такие проблемы невозможно, потому что там годами может накапливать такой бардак, что уже ни один менеджер толком не может сказать, что вообще нужно и актуально, а что нет. Копать это приходится неделями и долгими месяцами и слава богу, если структура и программист толковый, а когда там сайт делался через одно место, программист невменяемый и менеджеры работают на отмахись, то это вообще бездонное болото проблем.
А что это тебе в сухом остатке даст?
Ну допустим, за 2 года полного игнора страницы.
Твоя сторона вопроса - это всё равно ответная реакция на твою попытку реанимировать страницы в индексе. Тут либо "да", либо "нет". Начальный статус (даже если он был когда-то обнулён) всё равно потом заместить актуальной информацией.
Где-то пару лет назад на аудите был проект. Крупный интернет магазин, товарное наполнение порядка 4 мнл.
Что примечательно, включается РК в Директе - объём индексации резко подскакивает - в индекс за ап залетает десятки тысяч страниц. РК заканчивая - от апа к апу тысячами и десятками тысяч идёт вылет и такие качели годами.
Ну, тут либо удалять физически, либо имитировать ПФ, если задача продвинуть страницы под формирующийся спрос.
Исходя из твоего описания - это объём загруженных страниц.
Для миллионника - это крайне маленький объём. Но тут встаёт вопрос объём полезного актива, потому что там может быть добрая половина неполных дублей из каких-нибудь товарных фильтров.
Понятное дело. Если проект миллионник, а робот обходит только по трети от объёма, то очередь на обработку там может быть на долгие месяцы.
По поводу скрина - вероятнее всего данные о переобходе страницы были уже стёрты к моменту, когда ты её добавил.
Помним, Яндекс экономит ресурсы, поэтому ему не нужно хранить всё, а значит за определённые период времени невостребованные страницы он может вообще обнулять по статистике. Вот как роботу не надо ходить по той доле страниц, которая не попадает в 300K, также ПС не надо хранить статистику по невостребованным ею страницам.
Теперь я понимаю фокус твоего вопроса, надо тебе было сразу изложить детали и приложить скриншот :)
Так что она не вообще вылетает, а статистка по ней просто очищается.
Уберет точно нет, но усложнит учёт разнообразия факторов - вероятнее всего.
Привет, Сереж! 🤝
Именно периодами - нет, потому что в общем срезе средний показатель возврата будет зависеть от объёма выборки.
В перечень факторов добавляется поисковая очередь, квота, структурная конфигурация, позиция в моменте, объём страниц, объем дублей, возможные технические ошибки, стат. факторы страницы, посещаемость и т.д. Т.е. ты гоняешься за совершенно ненужным показателем - это всё равно что анализировать статистику погоды и выводить средние значения по периодам наибольший отклонений атмосферного давления. Для статистики оно может и нужно, но для практического применения обычным людям бессмысленно.
По факту, как ранее исключённая страница набирает достаточно сигналов для повторного добавления в индекс (и как только до неё доходит очередь, среди прочих) - она появляется. В анализе отдельной страницы это может быть и день, и несколько дней, и неделя и месяц. Что даст тебе конкретика, когда одна страница A появилась на следующий день, а интересующая тебя страница Б только через неделю? Что будешь считать средним? У прочих страниц может быть свой период, который обусловлен вышеизложенными факторами.
Делюсь каждодневным опытом :) Рабочий вопрос должен звучать не "когда", рабочий вопрос должен звучать - "как и в каком объёме организовать работу, чтобы вернуть необходимую выпавшую массу страниц в индекс", причём не так, чтобы через неделю она опять выпала, а так чтобы постепенно уменьшать базу страниц BAD_QUALITY и LOW_DEMAND переводить их в рабочий актив сайта.
Тебя возможно интересует минимальный рабочий интервал, отвечу - были случаи, что и за сутки.
Сейчас залезу в рабочий проект, ну, вот, пожалуйста,
Два апа к ряду.
Я просто определяю рабочий перечень, провожу сортировку и приоритизацию и начинаю работу.
На небольших, но хорошо прокаченных сайтах - это может быть в интервале 2-3 суток, на каких-нибудь больших проблемных проектах, где половина страничного объёма могут быть разного рода дубли возврат может быть и неделю.
В сущности я делаю так. Обработал - отправил на переобход и всё. Дальше ждёшь результатов.
Прыгнуть выше головы сделать больше предела технических возможностей ПС ты всё равно не сможешь, поэтому делай максимум из того что тебе доступно и оценивай результаты.
Периоды самые, самые различные. Когда выполнишь с десяток подобных итераций в течение нескольких месяц, дальше уже сам будешь знать и примерно чувствовать усредненные показатели по конкретному сайту.
Если проблем с доступом нет, то не влияет.
И главное, отказов сумасшедшее количество 70% почти, в несколько раз больше чем на ручке.
Я думал ИИ какое-то время раскачивается, а получается что ещё бОльшая шляпа?
А как же. Яндекс и раскручивает эту рандомную рулетку, чтобы просадить результаты.
А вы негодуете про гарантия и обещания, какие уж тут обещания, если сам процесс со стороны Яндекса протекает абсолютно стихийно.
Не нужны, поэтому Яндекс и прекращает их использование.