Проблемы с индексацией большого сайта (300.000 страниц) Гуглом.

123
T
На сайте с 30.01.2006
Offline
109
#11
Pavlick:

Поможет ли создание полной xml-карты сайта (6 файлов по 50к урлов, объединеных индексным файлом)? Если поможет, то подскажите, где можно сгенерировать карту с большим количеством урлов?

Создание xml карты, поможет гуглу быстрее проиндексировать сайт, но на позиции это никак не повлияет.

как создать карту можно найти здесь https://www.google.com/webmasters/tools/docs/en/protocol.html

что касается того, что число проиндексированных страниц, то увеличивается, то уменьшается, так это нормально. гугл сначала хавает новые страницы, а потом их отфильтровывает.

наращивайте внешние ссылки и будет вам счастье 🚬

Гугл учит терпению!
P
На сайте с 28.11.2007
Offline
20
#12

Я понимаю, что sitemap.xml никак не влияет на выдачу, но дело в том, что количество проиндексированных страниц резко сократилось с 50 тысяч до 6ти. Не говоря о том, что всего на сайте 300.000 страниц, и даже 50.000 проиндексированных меня не устраивает.

S
На сайте с 17.10.2003
Offline
332
#13
Pavlick:
и даже 50.000 проиндексированных меня не устраивает.

чтобы затащить в индекс столько контента нужны не просто ссылки, нужны реально жирные ссылки... шестерки и семерки

Не все ссылки одинаково полезны ( https://www.svift.org/ ). Тут заказываю комментарии и отзывы ( https://qcomment.ru/ref/5651 ) для своих сайтов
9
На сайте с 18.08.2007
Offline
72
#14

раскручиваю проект с 500 тыс страниц с 7 субдоменами ... кол-во проиндексированнах страниц растет пропорционально росту ссылок на проект... новостная лента без проблем кушается гуглом каждые 2-4 часа ... а вот с товарами сложнее...

при создании карты xml выкиньте оттуда мало важные страницы оставьте только самое главное....

P
На сайте с 28.11.2007
Offline
20
#15

Т.е. гугл индексирует сайты в зависимости от их веса?

Я всегда думал, что вес страниц никак не влияет на индексацию.

Pavlick добавил 18.08.2008 в 20:35

Добавлю к слову, что видел проект, с PR4 главной страницы, где проиндексировано более 150.000 страниц.

T
На сайте с 30.01.2006
Offline
109
#16
Pavlick:
Я понимаю, что sitemap.xml никак не влияет на выдачу, но дело в том, что количество проиндексированных страниц резко сократилось с 50 тысяч до 6ти. Не говоря о том, что всего на сайте 300.000 страниц, и даже 50.000 проиндексированных меня не устраивает.

не там копаете, чтобы загнать такое количество страниц в индекс, реально нужны очень жирные ссылки.

от карты сайта никакого толка не будет и страницы обратно в индекс не вернутся.

Sasha_l
На сайте с 22.08.2003
Offline
107
#17

добавте отзывы о товарах (если еще не добавили - к примеру можно показывать последние 2-3 отзыва прям на страничке товара), страничка хотя бы из-за них станет интересна G

ну и ссылок побольше, точено по основным разделам

должно помочь

Оптимизирую и продвину ваши сайты "под ключ" (http://www.seodoktor.ru/) Skype: SeoDoktor
P
На сайте с 28.11.2007
Offline
20
#18

Вобщем итог такой: меняю контент, работаю дальше над ссылками, ну и все-таки не поленюсь сгенерить полную xml-карту.

Надеюсь поможет.

Всем спасибо за советы!

mallboro
На сайте с 17.07.2006
Offline
117
#19

Pavlick, скиньте сайт в личку, посмотрю

Здесь я покупаю и продаю качественные ссылки навсегда (http://www.gogetlinks.net/register_user.php?inv=jzh9ss) Размещение в англоязычных каталогах статей под ключ ()
[Удален]
#20

Гугл сильно не любит недоступные страницы. Когда после серверного сбоя гугл не смог достучаться до страниц и они выпали из индекса, страницы вернулись в индекс только спустя почти год...

Сайтмеп для пробы скармливал иксмыльный и плейнтекстовый; плейнтекстовый принял менее охотно, но в итоге работает с ним ощутимо лучше; стабильно добавляет в индекс по несколько сотен страниц в месяц.

Вместо иксмыльного сайтмепа сделал rss и прилинковал на главной; гугла схомячила и совершенно спокойно индексирует новые страницы.

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий