Открывать ли сразу весь сайт?

12
Willie
На сайте с 08.10.2008
Offline
200
#11
fagot_seo:
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"

И правильно сделал, не находите?

Открывать/закрывать надо НЕ в роботсе, а таким образом, чтобы они были вообще недоступны.

Попробовать мобильные прокси бесплатно: clck.ru/3EKDyC
Ingvarr
На сайте с 26.04.2009
Offline
452
#12

открывайте сразу весь

fagot_seo
На сайте с 06.05.2011
Offline
65
#13

Всем спасибо. Похоже, большинство мнений совпадает с моим - если все страницы оптимизированы и готовы, то открывать их можно все. Так и сделаю.

Может у кого-то есть еще опыт, которым может поделиться?

Автор курса Python для SEO специалиста (http://py4you.com/courses/python-for-seo/) Разработка ПО py4you.com (http://py4you.com/development/)
Trafikgon
На сайте с 24.10.2008
Offline
174
#14

Да весь открывайте будет лучше.

. (#)
B
На сайте с 06.03.2012
Offline
59
#15

лучче понемногу не тороплясь

особенно если контент не уникальний

Gato
На сайте с 30.08.2008
Offline
142
#16

На старом сайте добавил огромное количество сырого неуникального контента. Сначала было круто вверх, а потом круто вниз. Щас потихоньку восстанавливается тренд вверх.

Я бы выкладывал постепенно и только хорошо проработанный контент, смотрел бы как реагируют юзеры и нет ли большого % отказов.

Самый лучший мониторинг обменок WebMoney (http://kurs.com.ua/webmoney) Информеры и API курсов валют для ваших сайтов: Россия (http://kursvalut.com/informer) Украина (http://kurs.com.ua/informer). Продам качественный трафик UA.
Sower
На сайте с 30.12.2009
Offline
651
#17
Willie:

Обоснование: проще не попадать в "сопли", чем вытаскивать страницы оттуда. Поскольку Гугол переиндексирует "сопливые" страницы гораздо медленнее, чем нормальные.

Продолжаешь смешить людей своими соплями? :D

ТС, ни в какие сопли гугл не загонял ваши страницы. Он взял в индекс положенную норму страниц с нового сайта (все сразу он давно уже не берёт), оценил качество контента по своим меркам, принял во внимание вес этих страниц и сделал вывод сколько из них ему целесообразно держать в "оперативной памяти индекса". Если вдруг какая-то из этих страниц будет соответствовать поисковому запросу, то она появиться в выдаче, хоть на 1 месте, не смотря на то, что она "в соплях".

Не нужно бежать впереди паровоза, придёт время и он съест все 40K (что совсем не много).

__________________Бесплатная накрутка ПФ: посещаемость, просмотры, переходы с поисковиков по ключевикам, итд.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Fringer
На сайте с 19.09.2012
Offline
82
#18

В данном посте дан четкий ответ на Ваш вопрос о вбросе большого объема контента в индекс.

fagot_seo:
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"

Ну и правильно сделал. Роботс вообще не панацея, а всего лишь подсказка.

Хотите что-нибудь надежно закрыть - пользуйтесь метатегом <meta name="robots" content="none"/> или его другими модификациями в зависимости от поставленных целей.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий