И вот еще вопрос, на сайте (сайт посвящен астрономии) помимо новостей и статей есть еще и разные тематические разделы, например: тематические обои, фильмы, словарь терминов и прочее. Так вот, стоит ли их закрывать от индексации, если они все равно почти все попадут в саплиментал гугла? Может нужно оставить только новости и статьи? Подскажите, кто в курсе?
Друзья, а подскажите, пожалуйста, процент страниц в саплиментал влияет как-то на позиции сайта? И вообще, как относится гуглобот к сайтам, где столько страниц в доп. индексе?
h1 нет только на главной, на всех остальных страницах он есть. На счет уникальности контента - все новости и статьи минимум 90% по адвего, а чаще всего около 95%.
Спасибо за остальные ошибки, обязательно учту, но вопрос по сути остается: ладно страницы с фильмами попали в доп. индекс, согласен, но с новостями и статьями то почему? Там как раз и h1...h3, перелинковка, все вроде как должно быть. Тогда за что их?
wildbeez, не могу написать ЛС. Вот ссылка сайта: macrocosm.com.ua
На счет миллиона посетителей - увы, нет. В день, около 100-200 уникальных, а зарегиных всего несколько и то по большей части авторы новостей. Профили закрыты через robots.txt
Не постоянно, а только раз, но основательно. В дальнейшем, конечно же, такое не предвидится. Ссылки на новости остались прежними. По сути вся информация осталась по прежней структуре с сохранением адресов.
Интересно то, что изначально кол-во ссылок в основной выдаче было 20-24, но потом в один день упало до 13, поднялось до 15, а затем до 17. На сегодня, используя команду site:sitename.ru/&, получаю значение 9 страниц.
Собственно вопрос прежний, нормально ли такие скачкИ для нового сайта или нет? Да и вообще, нормально ли, что столько страниц в дополнительной выдаче?
Хочу отдельно отметить, что на сайте много, как мне кажется, ненужных разделов закрыто через robots.txt. А еще, есть файл sitemap.xml, который был благополучно скормлен гуглу. Ошибок при этом обнаружен НЕ было.