Не пойму ситуацию!

M
На сайте с 20.10.2011
Offline
1
502

Подскажите пожалуйста, мой сайт http://mywebconstructor.ru/ В панели Вебмастер сообщается, что загружено роботом 120 страниц, а страниц в поиске всего 71. Это можно рассматривать как бан или фильтр?

Krotik
На сайте с 12.03.2010
Offline
91
#1

Это не бан, а дубли, причем даже не очень много. Сколько страниц исключено роботом?

Кстати, вы robots.txt давно сделали? В нем, например, теги запрещены, а в индексе они есть.

M
На сайте с 20.10.2011
Offline
1
#2

Сайт существует недавно (полтора месяца), а робот сделан 11 октября сего года.

А вообще как поступать с дублями, хорошо это или плохо для сайта?

Krotik
На сайте с 12.03.2010
Offline
91
#3

Сайт про продвижение делаете, а про дубли не знаете ;)

Дубли это плохо, потому что Яндексу незачем включать в индекс одинаковые страницы. В идеале число страниц в поиске = загруженные роботом минус исключенные роботом. Любые дубли нужно закрывать от индексации. Вообще в панели Вебмастера в хэлпе есть даже ссылка, которая выглядит точно так же, как и ваш вопрос "Почему число страниц в поиске меньше числа страниц, загруженных роботом?"

Про дубли вордпресса и про его роботс очень много написано, в том числе и на форуме, поищите.

K
На сайте с 31.01.2001
Offline
737
#4
Krotik:
а дубли

Не обязательно. Может быть неинформативные страницы.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
M
На сайте с 20.10.2011
Offline
1
#5

Насчет неинформативности - не знаю. Анализирую контент на уникальность - все в норме, даже очень неплохие показатели, пишу сам, и только на основе собственного опыта.

maximusnett добавил 20.10.2011 в 10:43

А могут, каким то образом влиять на индексацию страницы закрытые внешние ссылки, имею в виду (noindex и nofollow)?

K
На сайте с 31.01.2001
Offline
737
#6

Никак не могут.

M
На сайте с 20.10.2011
Offline
1
#7

Спасибо за информацию, понял куда копать!!!😂

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий