Проблема с индексацией в Гугле

[Удален]
515

Сайт СДЛ , тИЦ 160, PR3

В Яндексе 3756 страниц, в Гугле - 287.

В ВМ Гугла не заметил каких-либо ошибок, кроме запрещенных страниц в роботе и пары-тройки 404.

Как понять в чем причина? Посоветуйте пожалуйста, о гуру, Гуглопродвижения:))

Z-Style
На сайте с 18.03.2010
Offline
185
#1

Обычно это нехватка траста, копипаст, плохая перелинковка.

M
На сайте с 03.08.2008
Offline
74
#2

А у меня скандирует страницы запрещенные в robots.txt, сканирует результат формы фильтрации по кнопке submit, сканирует ссылки через javascript стоящие внутри формы и запрещенные в robots.txt. Мало того что скандирует, но еще и ставит все это в индекс, большинство сразу в дополнительный индекс, но некоторые и в основной!

Причем сказать, что не видит robots.txt нельзя, так как я регулярно удаляю эти "левые" страницы через панель вебмастера с галочкой на "The page returns a 404/410, or has been blocked by robots.txt or a noindex meta tag" и они удаляются.

А результаты формы индексирует тоже непонятно, очень выборочно, только один раздел, хотя в другом разделе стоит точно такой же фильтр, только с другим адресом в action. Точно такой же. Программное решение обоих разделов полностью одинаковое.

Самое интересное, что при этом при всем бот гугла перестал индексировать все нормальные страницы с контентом, ДАЖЕ если на них есть ссылки. Удалось поставить в индекс, кроме главной только одну страницу с контентом только после того как прогнал ее через гугловский Website Optimizer, но это же не выход - так на каждую страницу тратить по два-три дня.

Странно ведет себя и панель вебмастера. В ней стоит, что проиндексировано 144 страницы, хотя в индексе только две ( все остальные не определяются ни по запросу site:site.com/, ни прямым набором URL в окне поиска гугла). Количество запрещеных в robots.txt до вчерашнего дня показывала правильно - 262, а сегодня уже 90, причем в перечислении запрещенных страниц исчезли страницы административных разделов CMS.

И все это происходит только с пауком гугла, все остальные, ВСЕ остальные, и скандируют и индексируют идеально, как и надо. Пришлось делать в роботе две части одна для User-Agent: Googlebot и другая нормальная для User-agent: *, просто нет желания скармливать остальным весь гугловский маразм.

Кто-нибудь может хотя бы предположить что происходит?

www.business-real.com (http://www.business-real.com) Сам верстаю, сам программирую, сам пишу статьи (почти всегда).

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий