Открывать ли сразу весь сайт?

12
fagot_seo
На сайте с 06.05.2011
Offline
65
1441

Добрый день, коллеги!

Сегодня у нас в офисе возник вопрос. Будем продвигать под google.com 1 сайт, он только с программистского станка.

Я хочу открыть его весь сразу целиком для Гугла (около 40 000 страниц), а альтернативное мнение коллеги в том, чтобы открывать его лавинообразно 1-я неделя 100 стр, вторая неделя 1000 стр, третья неделя 10000 стр. и т.д.

Недавно открывал похожий сайт, в той же тематике, тоже новый но постепенно, как и говорил коллега. С ним произошло следующее: Гугл просканировал весь сайт несмотря на роботс, загнал все страницы в сопли, а оставил только 50 полезных страниц из 150 открытых + каждый день выкидывает по 2000 страниц из результатов. После этого сайт плохо индексируется, добавляю и пингую новые страницы, они не попадают в индекс уже дней 5.

Особенность сайта: Контент уникализирован, страницы между собой похожи.

Поделитесь мнениями пожалуйста, стоит открыть его сразу весь или таки дергать Гугл по 1000 страниц в неделю?

Автор курса Python для SEO специалиста (http://py4you.com/courses/python-for-seo/) Разработка ПО py4you.com (http://py4you.com/development/)
Mik Foxi
На сайте с 02.03.2011
Offline
1179
#1

Может такой некачественный контент вообще не открывать?

Антибот, антиспам, веб фаервол, защита от накрутки поведенческих: https://antibot.cloud/ (Зеркало: https://антибот.рф/ ) Форум на замену серчу: https://foxi.biz/
fagot_seo
На сайте с 06.05.2011
Offline
65
#2

Нет, контент там для людей. Просто особенность его такая, как ни крути, похож на соседние страницы...

serjoo
На сайте с 12.09.2011
Offline
389
#3

А вы хотели напарсить и все чтобы в индексе было? :)

---------- Добавлено 30.07.2013 в 19:52 ----------

fagot_seo:
Просто особенность его такая, как ни крути, похож на соседние страницы...

зачем похожие делать?

Мультур..
Willie
На сайте с 08.10.2008
Offline
200
#4
fagot_seo:
Я хочу открыть его весь сразу целиком для Гугла (около 40 000 страниц), а альтернативное мнение коллеги в том, чтобы открывать его лавинообразно 1-я неделя 100 стр, вторая неделя 1000 стр, третья неделя 10000 стр. и т.д.?

Насколько я знаю, фильтр за резкий рост числа страниц вроде бы не действует. Хотя никакими официальными данными об его отмене (впрочем, как и о введении) не располагаю.

В любом случае Гугол не просканирует 40 тысяч страниц нового сайта одновременно. Поэтому имеет смысл поступить так:

- открыть штук 100...200 страниц и посмотреть на их судьбу (это займет минимум недели три для нового домена);

- если они массово отправляются в "сопли", то нет смысла искушать судьбу и открывать остальные - лучше их переработать с учетом обнаруженных ошибок;

- потом сделать "контрольный вброс" новых страниц и также отследить их судьбу;

- если все нормально, то можно открывать уже тысячами.

Обоснование: проще не попадать в "сопли", чем вытаскивать страницы оттуда. Поскольку Гугол переиндексирует "сопливые" страницы гораздо медленнее, чем нормальные.

Попробовать мобильные прокси бесплатно: clck.ru/3EKDyC
fagot_seo
На сайте с 06.05.2011
Offline
65
#5
serjoo:
А вы хотели напарсить и все чтобы в индексе было? :)

Парсинг парсингу рознь...

serjoo:
зачем похожие делать?

Это не суть, людям удобно будет.

Подскажите лучше как открыть к индексации сразу все или частями?

olympteka
На сайте с 08.06.2013
Offline
16
#6
fagot_seo, Нет, контент там для людей. Просто особенность его такая, как ни крути, похож на соседние страницы..

У меня схожая ситуация. Гугл схавал сразу все 60 000 страниц, в основном тлоько 564 (количество в течении 2-х месяцев росло постепенно с 200).

И действительно, например, у меня 5600 результатов олимпийских игр - по сути все страницы однотипны и ничего тут не придумаешь. Не подменять же результаты билибирдой. В других разделах также.

serjoo
На сайте с 12.09.2011
Offline
389
#7
fagot_seo:
Подскажите лучше как открыть к индексации сразу все или частями?

по мне так без разницы.

fagot_seo
На сайте с 06.05.2011
Offline
65
#8
Willie:
Насколько я знаю, фильтр за резкий рост числа страниц вроде бы не действует. Хотя никакими официальными данными об его отмене (впрочем, как и о введении) не располагаю.

В любом случае Гугол не просканирует 40 тысяч страниц нового сайта одновременно. Поэтому имеет смысл поступить так:
- открыть штук 100...200 страниц и посмотреть на их судьбу (это займет минимум недели три для нового домена);
- если они массово отправляются в "сопли", то нет смысла искушать судьбу и открывать остальные - лучше их переработать с учетом обнаруженных ошибок;
- потом сделать "контрольный вброс" новых страниц и также отследить их судьбу;
- если все нормально, то можно открывать уже тысячами.

Обоснование: проще не попадать в "сопли", чем вытаскивать страницы оттуда. Поскольку Гугол переиндексирует "сопливые" страницы гораздо медленнее, чем нормальные.

В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"

olympteka
На сайте с 08.06.2013
Offline
16
#9
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"

Мне, кажется, он в любом случае отправил бы большинство однотипных страниц в сопли, оставив какую-то часть в основном. Я смотрел по нескольким сайтам справочным - что у них в соплях что в основном, и моё предположение подтвердилось. Но это в моей тематике.

fagot_seo
На сайте с 06.05.2011
Offline
65
#10
olympteka:
Мне, кажется, он в любом случае отправил бы большинство однотипных страниц в сопли, оставив какую-то часть в основном. Я смотрел по нескольким сайтам справочным - что у них в соплях что в основном, и моё предположение подтвердилось. Но это в моей тематике.

Спасибо, и правда стоит посмотреть на результаты сайтов-справочников в нашей тематике

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий