Не индексирует новые страницы из-за дублей ?

W
На сайте с 14.03.2011
Offline
111
wnt
599

Добрый день.

Решил провести небольшой эксперимент.

Есть блог обновляемый 1-2 раза в неделю.

cms - wordpress.

Был составлен robots.txt который закрывает от индексации все /page , /category , /2011 и т.д.

Страницы залетали в индекс более менее нормально, учитывая что они уник, который руками пишется.

Примерно месяц назад открыл для индексции /page , /2011 , /category.

В итоге уже месяц не наблюдаю заход новых страниц в индекс, при том даже в сапе покупаю ссылки на эти страницы.

Такая штука возможна из-за дублей ?

Объем сайта - 179 страниц, в яше уже месяц 100 (в SiteAuditor показывает 100\179).

Гоша все скушал.

K
На сайте с 31.01.2001
Offline
737
#1

А робот-то брал эти страницы?

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий