Яндекс удалил из базы 90% сайта и продолжает удалять...

12 3
[Удален]
1353

Сайт новый, ему всего неделя. В начале стахановскими темпами Яндекс "поглотил" около 5000 страниц моего новоявленного сайта. Это погрузившись лишь на глубину 2-го уровня... (главная->раздел->товар).

Параллельно я немного редактировал движок сайта - небольшие косметические изменения...

Но потом вдруг Яндекс стал ежедневно "выплёвывать" огромную долю страниц из базы! Позавчера проиндексированных страниц стало 2000, вчера - 1500, а сегодня вообще 300!!! Ахтунг!!! Что это?!

Причём вижу в статистике Яндекса, что он каждые 3 часа всёже индексирует новые странички.... те, которые он раньше индексировал уже... Но количество страниц в базе-то всё равно уменьшается!

Есть ещё такой нюанс: ЕЖЕДНЕВНО на главной странице сайта и на всех подразделах меняется один небольшой раздел, где выводится рандомный товар, для каждого раздела - свой. Может, изза этого?

Подскажите, изза чего Яндекс может в таком бешеном темпе удалять проиндексированные страницы из базы... может, у кого-то было подобное, интересно проанализировать возможные причины.

Спасибо.

Piligrim
На сайте с 10.04.2005
Offline
145
#1

уже обсуждалось, пользуйтесь поиском. Пожалуйста ;)

Директив (http://directiv.ru) - поисковый маркетинг Адвербо (http://adverbo.ru) - продвижение с ежедневными списаниями за топ или трафик
K
На сайте с 31.01.2001
Offline
737
#2

Шульц, предлагаете удалить аппендицит по переписке? Давайте адрес сайта.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
[Удален]
#3

Piligrim, с моим черепашьим ЖПРС пользоваться поиском - настоящая пытка :( Ладненько, попробуем. А по каким вот только запросам, интересно искать? просто мне подобные темы не встречались.

К тому же может моя проблема связана с последними изменениями в Яндексе, которые произошли буквально пару дней назад?!

Kost, скинул в личку, посмотри.

K
На сайте с 31.01.2001
Offline
737
#4

См. личку. Сервер выдает 403 на robots.txt.

Piligrim
На сайте с 10.04.2005
Offline
145
#5

Шульц, например /ru/forum/22907

[Удален]
#6

Kost, да, там стояло "Disallow" для всех файлов "*.txt". Это убрал. robots.txt закачал. Полагаешь, это принципиально для Яндекса? Наличие роботс?

Piligrim, спасибо, очень схожая ситуация... неужели изза слишком длительного отклика сервера?! Даже на моём тормозном ЖПРС всё более-менее шустро грузится... хотя, конечно, сервачок где сайт лежит - нагружен...

[Удален]
#7

Вот выдержка из http://www.yandex.ru/info/webmaster7.html :

Дубликат - это один и тот же текст, под десятком разных адресов, зависящих, например, от способа навигации по сайту. Сайты с большим числом дубликатов время от времени подвергаются безжалостной чистке.

И какие страницы интересно он считает дубликатами? Совпадение контента на 100%? на 50%?

А то у меня во всех описаниях товаров есть в конце слово "Цена: ..." и ссылка "Купить", причём я их сделал пожирнее - через <h3>, и в итоге "весят" больше... Может изза этого?

.scu
На сайте с 23.11.2003
Offline
104
#8

Шульц, можно сайт в личку?

K
На сайте с 31.01.2001
Offline
737
#9
там стояло "Disallow" для всех файлов "*.txt". Это убрал. robots.txt закачал. Полагаешь, это принципиально для Яндекса? Наличие роботс?

Принципиально не наличие файла robots.txt в директории, а отдаваемый веб-сервером код. Он обязан быть либо 200, либо 404, т.к. робот должен соблюдать стандарт. А если он получает 403, он не может узнать содержание файла robots.txt, т.к. ВЫ это ему ЗАПРЕТИЛИ !

В этом случае, остальное можно не смотреть.

А вот теперь все в порядке, отдается 200.

[Удален]
#10

Kost, хорошо, это-то я исправил.... а в чём ещё трабл?

.scu, отправил.

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий