Покрытие 50% это уже большой сигнал для беспокойства. В норме покрытие не должно быть ниже 90%
А каким способом можно поднять покрытие до 90%?
Или переформулируя вопрос - почему покрытие может падать до <50%
Первые признаки старости:
Cначала был небольшой бонус новичка, потом сдулся.
По ходу - всё. Что бы поднять траф надо или менять концепцию сайта или наливать дофига контента.
Не единый, в смысле может содержать индексную страницу с перечислением (ссылками) на остальные карты, все конечно правильно оформленное. По другому, как вы себе представляете карту сайта с сотнями тысяч ссылок, категорий, форматов и тд?
Изучите структуру файлов .xml.
На сколько я знаю там ни каких get-запросов не может быть в принципе (а пагинация - это не что иное как get-запрос).
ТС надо сделать статикой, без всяких фокусов.
1 индексный файл со ссылками на другие СТАТИЧЕСКИЕ файлы (по 50000, помоему хавает). И не обязательно .xml, .txt тоже хавает великолепно. Мне нравится - порциями по 50000 строк урлов выбрал из БД с новой строчки - и вперёд, названия тоже роли не играют (можно, например 12.txt назвать).
И потом можно наблюдать по логу, когда гуглобот их съест. Понравится ему - через какое-то время в индексе.
А, что значит sitemap.xml?page=12 ?
На сколько я знаю .xml это единый файл, такую пагинацию впервые вижу.
Хорошо, тогда какая у Вас глубина просмотров в среднем?
Такое впечатление, что считается только время просмотра 1страницы.
Или с яваскриптами что-то намутили, или на сервере аналитики.
В том то и дело, трафик подрастает, отказы немного увеличились. Именно упало время на сайте (падение 1.07)
А как у Вас время подсчитывается?
Похоже, у Вас просто аналитика подламалась и всё.
Я надеюсь, что Григорий одумается. Хотя бы на счёт дескрипшенов, пёс с ними, с заголовками.
Вряд ли. Идёт общая тенденция к обесцениваю мета тегов. Начали с кейвордов, закончат тайтлами.