сейчас динамику индексируют все ведущие поисковики. Если тебя не смущают знаки ? & = в урл-ах , и нет русских символов в урл-ах(например .../page?top="описание ... чегото там") то можеш не заморачиваться.
Для Яндекса и Рамблера, по своему личному опыту могу сказать, что динамику очень неплохо индексирует. Особой разницы между статикой и динамикой не наблюдаю.
Для Гугля - возможно статика лучше. Хотя на некоторых моих сайтах сожрал за неделю динамики >4000 страниц и все они попали в кеш (сайт доска объявлений).
Вобщем для всех поисковиков нада хороших ссылочек на свой сайт. И будет индекситься.
наблюдаю тоже самое на некоторых своих ресурсах.
по запросу site: выдает одни url - без описания и нет их в кеше.
Сайт молодой. Сначала страниц 400 google сожрал, все появилось в кеше. пошел трафик. Через неделю-другую почти все страница из кеша улетели. и траф упал. (остались по запросу только ссылки без описания, хотя гугл все эти страницы знает. пишет их количество)
Я недавно поднимал подобную тему на этом форуме (нет описания страниц в google. Помоему так называется )
А на поддомене морда сайта сначала пропала из кеша - потом появилась. потом опять пропала. щас все ок пока. Но вглубь гугл не идет.
в google.ru и com.ua - у меня все по старому
Если не сложно, ПЛИЗ опиши признаки по каким ты определил, что сайт находится под фильтром.
на сайте 3 поддомена.
страниц было в индексе:
- главный домен
Результат поиска: страниц — 9265
стало 4955
поддомен 1
Результат поиска: страниц — 5397 Результат поиска: страниц —
стало
3005
поддомен 2
Результат поиска: страниц — 5650
Результат поиска: страниц — 3478
НАверное тоже в связи с этими передрягами :(
По поводу ссылок, не совсем согласен. Если пропали некоторые ссылки на сайт(пусть даже половина ссылок), то что гугл начнет выкидывать из кеша проиндексированные страницы?
Вот на PR действительно этот скорее всего отразится отрицательно, и скорее всего на выдачу. Хотя это всего мое предположение. Так как опыта СЕО под гугл у меня маловато ))
Версия с повторяющимся контентом, мне показалась более подходящей (именно в моем случае). Так как действительно страницы частично имеют одну и туже инфу. (мой сайт - это каталог с описаниями mp3 плееров - модели и их характеристики. А характеристики ведь похожи между собой)
Хотелось бы также в этом топике уточнить у опытных мастеров, что может учудить GOOGLe, когда он не сможет при очередной переиндексации поучить доступ к серверу. Насколько это хреново?
Что имееться под "нестабильность ссылок" - ссылки на мой сайт из вне?
А также вопрос к Interitus и IDL.
Что вы имеете ввиду под "неуникальность контента" -
Повторяющиеся содержание странц на моем сайте, или что гугл думает, что я своровал контент?
токо - что хотел об этом спросить ))
Дело в том, что все было нормально, и тут на тебе... Такая вот лажа.
И выдача упала. Если раньше >100 заходов серферов с гугла было, то сейчас 10-20.
Есть подозрения, что по некоторым направлениям небыло связи с сервером минут 15 – 20 (я с Украины не мог зайти на свой сайт, но в это время по логам видно, что были посещения в это время, в том числе yandex bot был на одном из поддоменов)
Интересует вот что - через скоко все может нормализоваться?
Ждать следующей переиндексации? Интересны практические знания.
И что гугл по первому "чиху" такое вот вытворяет?
Ведь с любым хостером могуд быть проблемы. А если проиндексированных страниц было >10000, то со всеми ими тоже такая лажа будет. Обидно...
. Обидно
Если в процессе переноса сайт будет всегда доступен, то никик
не повлияет. Недавно хостер мне делал перенос сайта на другой IP, так через день боты Яндекса рамблера гугля итд уже были на сайте.
Позиции тоже вроде на местах остались.