Кстати, я всегда достаточно серьезное внимание уделял тегам description и keywords абсолютно для каждой страницы, и правилам их заполнения (просто еще ориентируясь и на Yahoo и на Google).
Может это и было недавно дополнительным фактором большого роста позиций, несмотря на то, что ссылки принципиально вообще не покупаются.
display:none был в отдельном файле CSS или в теле страницы?
http://text.miratools.ru/
В принципе смотрю там не только тошноту но и как "стоят" стоп-слова к ключевикам, процентовки в strong, h1-h6, title, наличие словоформ.
А в сохраненной копии Яндекса смотрю как работает перелинковка - это в сноске где "еще".
Честно говоря, мне ВЧ и СЧ не нужны, я их и не мониторю. Вполне возможно по ним могут быть и другие значения. В любом случае без региона в ВЧ и СЧ "ловить нечего".
Работаю только по распространенным НЧ, т.е. на очень конкретный вопрос - очень конкретный ответ. С клиентов, которые приходят по таким запросам "выхлоп" реальный гораздо больше.
Продвигаю только внутренней оптимизацией. В тематике недвижимость в этот ап по нужным мне НЧ страницы перешли из топ-20, топ-30 в топ-5 и топ-10.
Кажется немного отпустили тошноту и вхождения и уменьшили влияние региональности. Если после предыдущего апа у меня страницы с тошнотой менее 4,5 и ключами 1,2%-1,8% стояли выше остальных, то теперь ощутимо подпрыгнули страницы с тошнотой 4,5-5,0 и ключами 1,8%-2,4%. Сейчас все буду под них подгонять.
Сайт вообще без региона совсем. Выдача московская.
А у меня скандирует страницы запрещенные в robots.txt, сканирует результат формы фильтрации по кнопке submit, сканирует ссылки через javascript стоящие внутри формы и запрещенные в robots.txt. Мало того что скандирует, но еще и ставит все это в индекс, большинство сразу в дополнительный индекс, но некоторые и в основной!
Причем сказать, что не видит robots.txt нельзя, так как я регулярно удаляю эти "левые" страницы через панель вебмастера с галочкой на "The page returns a 404/410, or has been blocked by robots.txt or a noindex meta tag" и они удаляются.
А результаты формы индексирует тоже непонятно, очень выборочно, только один раздел, хотя в другом разделе стоит точно такой же фильтр, только с другим адресом в action. Точно такой же. Программное решение обоих разделов полностью одинаковое.
Самое интересное, что при этом при всем бот гугла перестал индексировать все нормальные страницы с контентом, ДАЖЕ если на них есть ссылки. Удалось поставить в индекс, кроме главной только одну страницу с контентом только после того как прогнал ее через гугловский Website Optimizer, но это же не выход - так на каждую страницу тратить по два-три дня.
Странно ведет себя и панель вебмастера. В ней стоит, что проиндексировано 144 страницы, хотя в индексе только две ( все остальные не определяются ни по запросу site:site.com/, ни прямым набором URL в окне поиска гугла). Количество запрещеных в robots.txt до вчерашнего дня показывала правильно - 262, а сегодня уже 90, причем в перечислении запрещенных страниц исчезли страницы административных разделов CMS.
И все это происходит только с пауком гугла, все остальные, ВСЕ остальные, и скандируют и индексируют идеально, как и надо. Пришлось делать в роботе две части одна для User-Agent: Googlebot и другая нормальная для User-agent: *, просто нет желания скармливать остальным весь гугловский маразм.
Кто-нибудь может хотя бы предположить что происходит?
Все это есть, даже в доменном имени название города, а региона как не было так и нет.
Faq может быть и сырой, но ссылки именно с rel="nofollow" вылетели. Причем вылетели именно они - у меня все ссылки естественные и о каждой я знаю откуда и как именно ссылается, так что ошибки быть не может. Такие ссылки больше не работают.
ЖЕСТЬ! Нет слов...
Браво, Willie!