Гугл перестал индексировать новые появляющиеся страницы

12
[Удален]
1305

Создал 2 месяца назад англоязычный сайт. Начал регулярно наполнять уник контентом. Робот гугла регулярно был в гостях - точнее уже в течение часа после появления нового материала происходила индексация. Кроме того, сделал кросспостинг в livejournal. Несмотря на это, гугл все равно определял текст на сайте как первоисточник. Но вот, 2 недели назад, я заметил, что один материал проиндексировался на блоге livejournal как на первоисточнике. Я отключил кросспостинг. Однако далее при добавлении материалов (все уникальные) новые не индексировались. Что же произошло?

Возможно навредило то, что я однажды разместил статью в ezinearticles, но не дождавшись модерации разместил ее у себя на сайт? Может гуглу кто то на меня пожаловался. Однако, если бы был какой то фильтр, то вероятно позиции сайта по всем запросам упали бы, а у меня пока держатся. В чем же дело?

Возможно поможет создать новую карту сайта? (первую я создал в самом начале работы над этим проектом).

Уточню, что кроме блога с livejournal на сайт есть ссылки и с других ресурсов.

Mad_Man
На сайте с 10.11.2008
Offline
162
#1

plamar, частоту обновления всех страниц в настройках карты временно смените на "ежечасно".

O3
На сайте с 01.04.2008
Offline
10
#2

Если нет карты сайта, желательно ее добавить =)

Mad_Man
На сайте с 10.11.2008
Offline
162
#3

Oleg330, а Вы хорошо умеете читать?

koshak_gav
На сайте с 13.05.2009
Offline
72
#4

а Вы в ЖЖ указывали что Ваш сайт первоисточник?

Сначала подумай, а потом сделай!!
[Удален]
#5

Mad_Man +1

koshak_gav, ща посмотрю

вот кстати у меня такой роботс.

User-agent: *

Disallow:

что посоветуете изменить или добавить?

[Удален]
#6
Mad_Man:
plamar, частоту обновления всех страниц в настройках карты временно смените на "ежечасно".

а где это можно сделать? а то в гугл вебмастере никак не могу найти

plamar добавил 10.07.2009 в 13:51

HraKK:
Ы .

это означает типа всеми запрещено к индексации?

plamar добавил 10.07.2009 в 13:59

Да не, неправда это:

Если директива Disallow будет пустой, это значит, что робот может индексировать ВСЕ файлы. Как минимум одна директива Disallow должна присутствовать для каждого поля User-agent, чтобы robots.txt считался верным. Полностью пустой robots.txt означает то же самое, как если бы его не было вообще.
HraKK
На сайте с 02.03.2009
Offline
128
#7
User-agent: *
Disallow:

Ы .

я гарант (/ru/forum/493343) уже не оказываю данные услуги, извините.
Mad_Man
На сайте с 10.11.2008
Offline
162
#8

plamar, я карты делаю на WP через плагин, поэтому хз :)

А по поводу

HraKK:
User-agent: *
Disallow:

Это стандартный роботс :)

[Удален]
#9

поставил плагин на ВП для генерации карт. Кстати, ничего страшного, что я еще раньше сделал карту и скормил ее гугл вебмастеру?

koshak_gav
На сайте с 13.05.2009
Offline
72
#10
plamar:
а где это можно сделать? а то в гугл вебмастере никак не могу найти

Если Вы делали в гугле Sitemap, то именно там стоит пункт - mouthly (если не ошибаюсь), его нужно сменить на hourly (вроде так - давно не ставил, лучше проверить по гуглу - наводку дал)

В роботсе еще укажите хост - пример простого робоста:

User-agent: Yandex

Disallow: /*_openstat

Disallow: /*from=adwords

Disallow: /*showall

Disallow: /*element.php?PAGEN

Disallow: /*action

Disallow: /*clear_cache

Disallow: /images/

Disallow: /img/

Host: ВВВ.ВАШСАЙТ.ЗОНА

User-agent: Googlebot

Disallow: /*_openstat

Disallow: /*from=adwords

Disallow: /*showall

Disallow: /*element.php?PAGEN

Disallow: /*action

Disallow: /*clear_cache

Disallow: /images/

Disallow: /img/

Host: ВВВ.ВАШСАЙТ.ЗОНА

User-agent: *

Disallow: /images/

Disallow: /img/

Host: ВВВ.ВАШСАЙТ.ЗОНА

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий