Сайту 4 месяца и 97% страниц в supplemental

12
M
На сайте с 22.08.2013
Offline
0
870

В общем, суть такая.

Есть сайт, которому в целом почти 4 месяца отроду. Из них два месяца сайт не наполнялся, а полностью переделывался, то есть с момента регистрации домена, сайт поработал (наполняясь и были посещения) около одного месяца. Затем поменялось виденье на счет дальнейшей судьбы сайта и он был полностью переделан. Это заняло ~2 месяца. То есть по факту, в общем, сайт c момента регистрации домена и хостинга работает примерно полтора месяца (имеется ввиду, регулярно наполняется и привлекаются посетители).

Но (!) 96% страниц, находятся в supplemental гугла. Это нормально для молодого сайта или уже что-то критически не так?

Top for the good
На сайте с 16.02.2008
Offline
322
#1
Macrocosm:
Но (!) 96% страниц, находятся в supplemental гугла. Это нормально для молодого сайта или уже что-то критически не так?

Уже критически не так, что сайт постоянно переделывался и если вы меня чпу, а инфу оставляли, то просто страницы уже не уникальные. Тут надо делать редиректы со старых на новые адреса.

Чем вам помочь в SEO продвижении или юзабилити сайтов?
(https://topuser.pro/) Увеличить доход от РСЯ и AdSense (https://topuser.pro/uvelichit-dohod-adsense/)
M
На сайте с 22.08.2013
Offline
0
#2

Не постоянно, а только раз, но основательно. В дальнейшем, конечно же, такое не предвидится. Ссылки на новости остались прежними. По сути вся информация осталась по прежней структуре с сохранением адресов.

Интересно то, что изначально кол-во ссылок в основной выдаче было 20-24, но потом в один день упало до 13, поднялось до 15, а затем до 17. На сегодня, используя команду site:sitename.ru/&, получаю значение 9 страниц.

Собственно вопрос прежний, нормально ли такие скачкИ для нового сайта или нет? Да и вообще, нормально ли, что столько страниц в дополнительной выдаче?

Хочу отдельно отметить, что на сайте много, как мне кажется, ненужных разделов закрыто через robots.txt. А еще, есть файл sitemap.xml, который был благополучно скормлен гуглу. Ошибок при этом обнаружен НЕ было.

wildbeez
На сайте с 13.06.2012
Offline
68
#3

что за сайт? может и нормально что 97 в соплях. может у вас там посетителей миллион зарегистрировано и профили не закрыты..

дайте в лс адрес, посмотрю и скажу нормально или нет

M
На сайте с 22.08.2013
Offline
0
#4

wildbeez, не могу написать ЛС. Вот ссылка сайта: macrocosm.com.ua

На счет миллиона посетителей - увы, нет. В день, около 100-200 уникальных, а зарегиных всего несколько и то по большей части авторы новостей. Профили закрыты через robots.txt

wildbeez
На сайте с 13.06.2012
Offline
68
#5
Macrocosm:
wildbeez, не могу написать ЛС. Вот ссылка сайта: macrocosm.com.ua
На счет миллиона посетителей - увы, нет. В день, около 100-200 уникальных, а зарегиных всего несколько и то по большей части авторы новостей. Профили закрыты через robots.txt

в роботсе блок яндекс сделайте в конце, чтобы хост было последней строкой, и сайтмап нужно к блоку приставить, то есть убрать строку

запретите индексацию /comment/* - не за чем гуглу их индексировать. на них и комментов-то нет+дубли мета

уникальность контента сомнительная, некачественный рерайт

вот таким страницам http://www.macrocosm.com.ua/film/3 трудно попасть в основной индекс =)

есть дубли главной страницы, например http://www.macrocosm.com.ua/index.php

нет редиректа на главное зеркало

нет h1

дальше не стал смотреть

M
На сайте с 22.08.2013
Offline
0
#6

h1 нет только на главной, на всех остальных страницах он есть. На счет уникальности контента - все новости и статьи минимум 90% по адвего, а чаще всего около 95%.

Спасибо за остальные ошибки, обязательно учту, но вопрос по сути остается: ладно страницы с фильмами попали в доп. индекс, согласен, но с новостями и статьями то почему? Там как раз и h1...h3, перелинковка, все вроде как должно быть. Тогда за что их?

P
На сайте с 06.01.2009
Offline
592
#7

ТС, вам нужно понять какого типа страницы в соплях. Если страницы все однотипны, но с небольшим контентом (который разный) то это конечно непоправимо без добавления в каждую из них нового уникального контента.

wildbeez
На сайте с 13.06.2012
Offline
68
#8
Macrocosm:
Тогда за что их?

страницы сайта оцениваются как индивидуально, так и в целом

Top for the good
На сайте с 16.02.2008
Offline
322
#9
wildbeez:
в роботсе блок яндекс сделайте в конце, чтобы хост было последней строкой,

А чего именно хост должен быть последней строкой, а не 1-й?

wildbeez
На сайте с 13.06.2012
Offline
68
#10
Top for the good:
А чего именно хост должен быть последней строкой, а не 1-й?

если верить сотрудникам яндекс, то деректива хост указывается один раз в роботс и лучше в конце, потому что роботы других поисковых систем не знают хост и посчитав за ошибку могут проигнорировать другие дерективы

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий