marenda

Рейтинг
74
Регистрация
03.08.2008

Кстати, я всегда достаточно серьезное внимание уделял тегам description и keywords абсолютно для каждой страницы, и правилам их заполнения (просто еще ориентируясь и на Yahoo и на Google).

Может это и было недавно дополнительным фактором большого роста позиций, несмотря на то, что ссылки принципиально вообще не покупаются.

display:none был в отдельном файле CSS или в теле страницы?

HackMeN:
а чем вы тошноту меряете?

http://text.miratools.ru/

В принципе смотрю там не только тошноту но и как "стоят" стоп-слова к ключевикам, процентовки в strong, h1-h6, title, наличие словоформ.

А в сохраненной копии Яндекса смотрю как работает перелинковка - это в сноске где "еще".

Rashdor:
Да-да, у мну была очень заспамленная морда, места 5-9 по вч-сч, порезал аккуратно тошноту также, примерно до таких же значений - сегодня рост позиций +1+2. Но, имхо, нужно еще меньше сделать.

Честно говоря, мне ВЧ и СЧ не нужны, я их и не мониторю. Вполне возможно по ним могут быть и другие значения. В любом случае без региона в ВЧ и СЧ "ловить нечего".

Работаю только по распространенным НЧ, т.е. на очень конкретный вопрос - очень конкретный ответ. С клиентов, которые приходят по таким запросам "выхлоп" реальный гораздо больше.

Продвигаю только внутренней оптимизацией. В тематике недвижимость в этот ап по нужным мне НЧ страницы перешли из топ-20, топ-30 в топ-5 и топ-10.

Кажется немного отпустили тошноту и вхождения и уменьшили влияние региональности. Если после предыдущего апа у меня страницы с тошнотой менее 4,5 и ключами 1,2%-1,8% стояли выше остальных, то теперь ощутимо подпрыгнули страницы с тошнотой 4,5-5,0 и ключами 1,8%-2,4%. Сейчас все буду под них подгонять.

Сайт вообще без региона совсем. Выдача московская.

А у меня скандирует страницы запрещенные в robots.txt, сканирует результат формы фильтрации по кнопке submit, сканирует ссылки через javascript стоящие внутри формы и запрещенные в robots.txt. Мало того что скандирует, но еще и ставит все это в индекс, большинство сразу в дополнительный индекс, но некоторые и в основной!

Причем сказать, что не видит robots.txt нельзя, так как я регулярно удаляю эти "левые" страницы через панель вебмастера с галочкой на "The page returns a 404/410, or has been blocked by robots.txt or a noindex meta tag" и они удаляются.

А результаты формы индексирует тоже непонятно, очень выборочно, только один раздел, хотя в другом разделе стоит точно такой же фильтр, только с другим адресом в action. Точно такой же. Программное решение обоих разделов полностью одинаковое.

Самое интересное, что при этом при всем бот гугла перестал индексировать все нормальные страницы с контентом, ДАЖЕ если на них есть ссылки. Удалось поставить в индекс, кроме главной только одну страницу с контентом только после того как прогнал ее через гугловский Website Optimizer, но это же не выход - так на каждую страницу тратить по два-три дня.

Странно ведет себя и панель вебмастера. В ней стоит, что проиндексировано 144 страницы, хотя в индексе только две ( все остальные не определяются ни по запросу site:site.com/, ни прямым набором URL в окне поиска гугла). Количество запрещеных в robots.txt до вчерашнего дня показывала правильно - 262, а сегодня уже 90, причем в перечислении запрещенных страниц исчезли страницы административных разделов CMS.

И все это происходит только с пауком гугла, все остальные, ВСЕ остальные, и скандируют и индексируют идеально, как и надо. Пришлось делать в роботе две части одна для User-Agent: Googlebot и другая нормальная для User-agent: *, просто нет желания скармливать остальным весь гугловский маразм.

Кто-нибудь может хотя бы предположить что происходит?

mhz:
Например, сделать контактную информацию в формате hcard и добавить к адресу индекс, а к номеру телефона — код.

Все это есть, даже в доменном имени название города, а региона как не было так и нет.

Faq может быть и сырой, но ссылки именно с rel="nofollow" вылетели. Причем вылетели именно они - у меня все ссылки естественные и о каждой я знаю откуда и как именно ссылается, так что ошибки быть не может. Такие ссылки больше не работают.

AliasGroup:
"Такое понятие как закупка ссылок там уже умерло" - а как же они ссылки получают? Ну хотя бы как они объясняют тогда откуда берут ссылки?

ЖЕСТЬ! Нет слов...

Willie:
...мне нужно, чтобы вы тоже приложили хоть какие-то усилия.

Браво, Willie!

Всего: 423