Ну вот вам живой пример, понаблюдать за процессами. Сайты примерно 3 недели в выдаче.
По этому поводу на хабре есть статейка, не факт что контекст влияет, но факт что учитывается. http://habrahabr.ru/post/170801/
По поводу затолкать запросы в ТОП 1, есть одна тема, но только в личку.
Можете попробовать написать вебмастерам сайтов, которые дублируют ваш контент с просьбой ставить человеческие ссылки и указания первоисточника информации. Типа такого:
"Информация взята с сайта <Имя Бренда>"
Тогда можете даже + получить, как по посещаемости так и в доверии Гугла.
Такое может быть по причине пессимизации главной страницы или просто доменного имени.
Чтобы выйти из ситуации покупайте вечные ссылки, которые размещаются одновременно с появлением страницы, на трастовых сайтах с ПР >= 4 + Анкорами делайте название домена без зоны, название домена с зоной, http//домен с зоной. Таких ссылок нужно штук 10-20, но обязательно с трастовых сайтов.
Это ссылки вида
Статья подготовлена редакцией сайта КупиБатутОнлайн
Также распространяйте информацию о своем бренде (домене) в соцсетях: (Твиттер, Фэйсбук, и обязательно Гугл +)
Тогда Гугл будет распознавать вас как бренд и повысит по запросу равному доменному имени. Со временем возможно даже отобразит дополнительные ссылки в выдаче.
Еще обязательный пункт: Перепишите контент перед закупкой ссылок. И только после того как он будет проиндексирован тогда приступайте к закупкам. Гугл любит новый контент + когда ссылки появляются на новый контент - это выглядит естественно.
Параллельно проставляйте безанкорные ссылки и на внутренние страницы сайта.
Будь аккуратнее со словами, товарищь... Мы своих девушек ценим и любим, и в обиду не дадим!
Всем спасибо. Похоже, большинство мнений совпадает с моим - если все страницы оптимизированы и готовы, то открывать их можно все. Так и сделаю.
Может у кого-то есть еще опыт, которым может поделиться?
Спасибо, и правда стоит посмотреть на результаты сайтов-справочников в нашей тематике
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"
Парсинг парсингу рознь...
Это не суть, людям удобно будет.
Подскажите лучше как открыть к индексации сразу все или частями?
Нет, контент там для людей. Просто особенность его такая, как ни крути, похож на соседние страницы...