Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
samimages #:
Этот гаденыш проиндексировал 100%, но 60% выкинул и больше не переобходит.

Сереж, неудивительно, когда годами на сайте бесконтрольно за раз заливают десятки тысяч товаров, ничего не удаляется и не клеится + всё это по взаимным дублям раздувается на порядки, то естественно доля рабочих страниц которым ПС будет уделять внимание будет со временем уменьшаться.

К сожалению, исправить в одночастье такие проблемы невозможно, потому что там годами может накапливать такой бардак, что уже ни один менеджер толком не может сказать, что вообще нужно и актуально, а что нет. Копать это приходится неделями и долгими месяцами и слава богу, если структура и программист толковый, а когда там сайт делался через одно место, программист невменяемый и менеджеры работают на отмахись, то это вообще бездонное болото проблем.

samimages #:
Пытаюсь выяснить за какой период))) но чую придется самому высчитывать, хотя странно...

А что это тебе в сухом остатке даст?

Ну допустим, за 2 года полного игнора страницы.

Твоя сторона вопроса - это всё равно ответная реакция на твою попытку реанимировать страницы в индексе. Тут либо "да", либо "нет". Начальный статус (даже если он был когда-то обнулён) всё равно потом заместить актуальной информацией.

samimages #:
То что  BAD_QUALITY удаляется из индекса - факт. Причем тысячами, а не штуками.

Где-то пару лет назад на аудите был проект. Крупный интернет магазин, товарное наполнение порядка 4 мнл.

Что примечательно, включается РК в Директе - объём индексации резко подскакивает - в индекс за ап залетает десятки тысяч страниц. РК заканчивая - от апа к апу тысячами и десятками тысяч идёт вылет и такие качели годами.

samimages #:
Ну и речь идет о парсинге конечно, бессмысленном и беспощадном сотни тысяч страниц под нулевые запросы... там   LOW_DEMAND прям гарантирован)))

Ну, тут либо удалять физически, либо имитировать ПФ, если задача продвинуть страницы под формирующийся спрос.


samimages #:
Вопрос в контексте темы: 300 000 это не проиндексированный за 10 лет миллион или ликвидный остаток от него?

Исходя из твоего описания - это объём загруженных страниц.

Для миллионника - это крайне маленький объём. Но тут встаёт вопрос объём полезного актива, потому что там может быть добрая половина неполных дублей из каких-нибудь товарных фильтров.


samimages #:
Алгоритмически Яндекс не переобходит выкинутые таким образом страницы; на промежутке в полгода/год я не увидел ни одного случая, но если добавить руками, начинает историю такой страницы с момента добавления

Понятное дело. Если проект миллионник, а робот обходит только по трети от объёма, то очередь на обработку там может быть на долгие месяцы.


По поводу скрина - вероятнее всего данные о переобходе страницы были уже стёрты к моменту, когда ты её добавил.

Помним, Яндекс экономит ресурсы, поэтому ему не нужно хранить всё, а значит за определённые период времени невостребованные страницы он может вообще обнулять по статистике. Вот как роботу не надо ходить по той доле страниц, которая не попадает в 300K, также ПС не надо хранить статистику по невостребованным ею страницам.

Теперь я понимаю фокус твоего вопроса, надо тебе было сразу изложить детали и приложить скриншот :)

Так что она не вообще вылетает, а статистка по ней просто очищается.

MihailIsmailov2021 #:
Надеюсь яндекс уберет пф либо сделает его вклад в ранжирование минимальным

Уберет точно нет, но усложнит учёт разнообразия факторов - вероятнее всего.

samimages :
Вопрос: кто-то заморачивался периодами этих событий?
т.е. через какой срок страница удаляется из индекса, и через какой срок становится из "б/у", "новой"?

Привет, Сереж! 🤝

Именно периодами - нет, потому что в общем срезе средний показатель возврата будет зависеть от объёма выборки.

В перечень факторов добавляется поисковая очередь, квота, структурная конфигурация, позиция в моменте, объём страниц, объем дублей, возможные технические ошибки, стат. факторы страницы, посещаемость и т.д. Т.е. ты гоняешься за совершенно ненужным показателем - это всё равно что анализировать статистику погоды и выводить средние значения по периодам наибольший отклонений атмосферного давления. Для статистики оно может и нужно, но для практического применения обычным людям бессмысленно.

По факту, как ранее исключённая страница набирает достаточно сигналов для повторного добавления в индекс (и как только до неё доходит очередь, среди прочих) - она появляется. В анализе отдельной страницы это может быть и день, и несколько дней, и неделя и месяц. Что даст тебе конкретика, когда одна страница A появилась на следующий день, а интересующая тебя страница Б только через неделю? Что будешь считать средним? У прочих страниц может быть свой период, который обусловлен вышеизложенными факторами.


samimages :
Сейчас имею контрольные точки, но решил поинтересоваться вашим опытом.
Во-первых сэкономить время
Во-вторых периоды могут отличаться

Делюсь каждодневным опытом :) Рабочий вопрос должен звучать не "когда", рабочий вопрос должен звучать - "как и в каком объёме организовать работу, чтобы вернуть необходимую выпавшую массу страниц в индекс", причём не так, чтобы через неделю она опять выпала, а так чтобы постепенно уменьшать базу страниц  BAD_QUALITY и LOW_DEMAND переводить их в рабочий актив сайта.

Тебя возможно интересует минимальный рабочий интервал, отвечу - были случаи, что и за сутки.

Сейчас залезу в рабочий проект, ну, вот, пожалуйста,


Два апа к ряду.

Я просто определяю рабочий перечень, провожу сортировку и приоритизацию и начинаю работу.

На небольших, но хорошо прокаченных сайтах - это может быть в интервале 2-3 суток, на каких-нибудь больших проблемных проектах, где половина страничного объёма могут быть разного рода дубли возврат может быть и неделю. 

В сущности я делаю так. Обработал - отправил на переобход и всё. Дальше ждёшь результатов.

Прыгнуть выше головы сделать больше предела технических возможностей ПС ты всё равно не сможешь, поэтому делай максимум из того что тебе доступно и оценивай результаты.

Периоды самые, самые различные. Когда выполнишь с десяток подобных итераций в течение нескольких месяц, дальше уже сам будешь знать и примерно чувствовать усредненные показатели по конкретному сайту.

 

Приведите конкретный рабочий пример.
zheka79 :
Вопрос такой:  как то влияет ли на ранжирование в поисковых системах тот факт, что сайт лежит на домашнем сервере

Если проблем с доступом нет, то не влияет.

Barrboss #:

И главное, отказов сумасшедшее количество 70% почти, в несколько раз больше чем на ручке.

Я думал ИИ какое-то время раскачивается, а получается что ещё бОльшая шляпа?

А как же. Яндекс и раскручивает эту рандомную рулетку, чтобы просадить результаты.

А вы негодуете про гарантия и обещания, какие уж тут обещания, если сам процесс со стороны Яндекса протекает абсолютно стихийно.

qilly #:
Нафиг тогда эти турбо нужны)

Не нужны, поэтому Яндекс и прекращает их использование.


Всего: 12690