У меня вообще один сайт показывает 547 из 549 ерроров. По остальным да, как и у вас от 1 до 10.
Для статейного сайта с 600-800 страниц текста подходит?
Давайте, представьте нам факты, мы обсудим.
Вообще меня в последнее время волнует проблема слипов. Раньше слипов на аккаунте вебмастера у меня не было больше 7-8%. Сейчас на одном аккаунте Ссылок всего: 24048 SLEEP 3433 т.е. 14%! И это при том, что слипов ручных (M) нет т.к. я их ГБЛю, все только по балансу. И с каждым днем число растет, наблюдаю уже пару месяцев. Может грохнуть их всех?
И как быстро индексит Яндекс с карты сайта xmlной? Вот в том то и дело. А обычная это то же пагинатор от которого я пытаюсь избавиться :)
Ну вопрос попадания в индекс для меня крайне важный.
Ага, осталось только понять насколько товарищ Алаев разбирается в вопросах SEO.
ну это да, но если я за раз добавлю 1000 статей, то он может далеко не все схавать так как бОльшая часть ссылок пойдет именно с этих страниц. И вот тут-то и заковыка.
<META name="ROBOTS" content="noindex, follow">
Это геморр, для ДЛЕ нет отдельного шаблона для этих страниц, а ковырять код я не хочу, люблю работать с оригинальными дистрибутивами.
маразм. и так понятно что в урле site.ru/infoshka.html нет слова page и он покажет, что проиндексит.
потёрто 100500