valdissom, у Яндекса есть одна очень большая проблема: непредсказуемость как следствие программных ошибок и технических сбоев.
Хотя Садовский и демонстрировал, что мифы о новых фильтрах зачастую просто мифы, и находят обоснование в виде комплекса частных проблем вокруг конкретной интернет-площадки, не всегда удается докопаться, на чьей стороне возникла та первая, которая потянула за собой цепочку остальных.
Выпадение из индекса может быть связано с обычным сбоем, например, который наблюдался в конце сентября, либо могли быть проблемы у хостера ... а отказ в реиндексации мог быть связан и с новыми алгоритмами "Находки", которые уже определили наличие поискового спама на сайте, но санкции в полном объеме не были наложены до выпадения.
Практика показывает, что получение человекоподобного, не шаблонного, ответа от Службы Поддержки Яндекса возможно лишь в случае предоставления грамотных аргументов или контр-аргументов, призывающих к совместному решению возникшей проблемы.
Заметьте, что сегодня уже 12.10.2008, а основная индексная база в Яндексе еще от 02.10.2008. Целых 10 дней отставания, да и подкручивали что-то "на бегу". За это время пару раз менялась схема работы основного робота-индексатора на больших проектах. Почти уверен, что один из них частично выпадет в ближайший апдейт, и без "пинка" Платонам обратно не вернется.
Чаще спали по ночам ;)
Как обычно, хотя бы один пример. :D
Желательно, с цитатой из письма от тех. поддержки Яндекса, суть которого должна состоять примерно в следующем: "Страницы Вашего сайта не участвуют в поиске, так как алгоритмы Яндекса обнаружили ссылки со страниц на других ресурсах, которые раскручивают Ваш сайт с помощью ссылочного спама или являются поисковым спамом."
Если для себя - сколько угодно. Но 99% заказчиков, при первом спотыкании об "технические проблемы" в поисковиках, это недооценят.
HoSStiA добавил 12.10.2008 в 04:33
Были-были, до введения ссылочного )))
IMHO ночной бред.
Могли, запросто, забанить и "по стуку", но вряд ли в этом дело.
Яндексу просто не по силам анализировать дублирующийся контент "на лету" в момент индексации, да и незачем. Равно как и накладывать фильтры на "нулевые" сайты, которые в поиске и так практически не участвуют. Они могут это сделать в любое удобное для них время, анализируя поисковую базу в целом. Это может произойти как завтра, так и через год. Незачем за каждым чихом нагружать вычислительные ресурсы, когда чистку проще проводить "глобально".
Даже мусор в "/tmp" не чистят каждый час, а по определённому расписанию.
С Днем Рождения, МеТаЛюга!🍾
А почему бы и нет?! Хотя бы для увеличения количества запросов к системе, для статистики ...
Действительно, откатили бэки. Порнография в том, что 40% "условно-бесплатных" площадок с прямыми ссылками - под фильтрами. :D
Сначала индексируют, затем ранжируют ... часто оба процесса пытаются совместить. Сэйп - это уже из области метафизики, для любителей совмещать приятное с полезным.
12 !
Вивчатиму українську мову!!! =)