Вопрос по вебмастеру и индексированию

M
На сайте с 08.10.2010
Offline
28
389

Постоянно наблюдаю следующую ситуацию:

в определенный момент в индексе находится 1000 страниц. После обновление поисковой базы в индексе остается 600 страниц. При этом вебмастер показывает, что исключено некоторое количество страниц (которые действительно не должны попадать в индекс - их там до этого и не было, они были просто загружены ботом). Среди этих исключенных страниц (по словам вебмастера) нет ни одной их тех 400 страниц, которые до этого были в индексе (по наполнению и по правилам robots.txt они там должны оставаться).

Объясните, почему такое происходит, почему пропадают нормальные страницы, а вебмастер этого не фиксирует?

SR
На сайте с 28.09.2010
Offline
26
#1

Может из-за контента? Проверьте текст на уникальность

M
На сайте с 08.10.2010
Offline
28
#2

Дело не в контенте. Вопрос именно в том, почему вебмастер не фиксирует "нормальные" исключенные страницы, а не те, которые я самостоятельно указываю как мусор в robots.txt.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий