Есть ситуация на информационном проекте. Загружено 300000 страниц. За последний месяц количество страниц в выдаче уменьшилось с 50000 до 20000.
У Гугла в поиске все ок.
А почему бы на лендинг не закупить контекст? Так же вроде эффективнее. Или конкуренция большая?
В это же время на старом сайте или попап сделать при загрузке со ссылкой на лендинг (как на форбсе, например) для теста.
0,4 - это нормальный показатель. 1 секунда - многовато для ответа.
У меня похожая ситуация... Проиндексировано 300000 страниц, а в индексе 20000. И последняя цифра может сказать в +- 20000 (от 20 до 40).
А сколько примерно нужно твитов для индексации новой страницы сайта с быстророботом в новостях? Влияет ли это как-то вообще?
Неоднозначный апдейт. А это только у меня теперь позиции в serp parser каждый день скачут?
Как вы сможете исключить взаимное влияние этих бирж на вас сайт?
Хм, у меня несколько тысяч страниц. Как-то эти проекты отказываются работать...
Да, именно сайтов. А можно поподробнее про архив бэков? Как заказать?---------- Добавлено 03.11.2013 в 15:47 ----------
В своей тематике не встретил ни одного сайта, который двигается на поддоменах. Очевидно, что это чрезвычайно большие бюджеты.
Да и поисковики уже вполне неплохо отличают региональность вкладок. Думаю, что присвоение регионов Яндексом скоро потеряет такую необходимость. Сайт с региональностью "Москва" очень неплохо обгоняет даже ведущие информационные проекты в регионах по одинаковым запросам.