- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На разных сайтах есть странички, которые Гугл никак не хочет индексировать. Наличие внешних и внутренних ссылок со страниц, имеющих PR, не помогает. На самих страницах - уникальные тексты, отсутствует спам, нет исходящих ссылок, нет ошибок html... Причина непонятна. Робот на них просто не ходит. Есть сайт, где с момента создания - с апреля, робот Гугла ни разу не зашёл на одну такую страничку. Некоторые такие странички роботом посещались только в самом начале - сразу после их создания, а затем страницы выбрасываются из индекса, и больше не посещаются роботом.
Есть два предположения:
1. плохие анкоры в ссылках
2. слишком распространённая тема странички (вариант: "тема - не по рангу для этого сайта")
По поводу ранга: когда-то были высказывания деятелей из Гугла, что индексация страниц зависит и от темы. Что в некоторых темах странички оказываются в индексе через минуты, а в других - только после определённой выдержки, в зависимости от значимости темы и ранга сайта. Я не имею в виду PR - это что-то другое.
поддержу вопрос ТС
существует 20-30% тематических страниц без ошибок/сапы/спама, полностью соответствуюших тематике сайта, но страницы прочно в дополнительном индексе, соответственно гуглбот быват не них чуть ли не раз в полгода.
Вчем может быть причина?
1. Проблем с самим сайтом(доменом) нет ни каких?
2. Вообще-то в таком случае просто создаю новую страницу спустя месяц-полтора, если та не проиндексирована. По поводу вхождения в индекс отдельных страниц сразу после создания(причем окончательно не оптимизированных), а потом их долгой индексации - наблюдалось не раз подобное. Попробуйте удалить ее из индекса, а потом снова "вернуть" и не забывайте про xml карту.
попробовать скормить sitemap, если сайт имеет быстро индексируемый раздел новостей, вывесить статью или новость, где будет ссылка на неиндексируемую страницу, добавить неинд. страницу в несколько сервисов социальных закладок, откросспостить в блоги (анонс+ссылка на страницу).
такая проблема часто случается, если на сайте много страниц.
С доменом проблем нет, и с другими страницами на этом же сайте - всё нормально. Это касается только некоторых страниц.
alexsandr81, да! Бывает и так, что отдельная страница в соплях сидит, и ссылки не помогают. Тоже причина непонятна. Текст добавлять и дизайн менять тоже бесполезно.
ABAHABA добавил 25.09.2010 в 21:42
Демоненок, дело не в том, что Гугл не знает про эту страницу. Когда ставлю на новую страницу ссылку в блоге, Гугл очень быстро на неё заходит, а на эти страницы - нет. Есть такие страницы и на сайтах с sitemap. Страниц там не много, и ссылки на них стоят и на морде, и на других страницах с PR, и ещё внешние есть...