Вот это запрос, я понимаю! Настолько востребованный и конкурентный, что "Розовые слоны в Гренладии" нервно курят в сторонке....
А DESCRIPTION на тех страницах ЕСТЬ ! Что Вы хотели показать этим?
Willie добавил 20.07.2010 в 23:58
Представляете, сам. С помощью Руководства для веб-мастеров от Гугла.
А Вы не прописывайте НА СВОИХ сайтах, ага? :)
Ваши слова - да богу в уши! Попробуете НА СВОИХ сайтах применять такое?! Когда все внешние ссылки отвалятся - что станете делать? А возраст домена, извиняюсь, тоже по "301" перетекает? И траст, и все остальное, да? :)
Проверил (наугад):
- lenta.ru: описание есть, вот страница: http://www.lenta.ru/story/smolenskcrash/
- smi.ru: да, описание пусто. Следствие: из 7300 страниц только 1500 в основном индексе. А Вы можете поверить, что на новостнике всего лишь 7300 страниц?! Я - нет. Значит, остальные вообще выброшены из индекса, и число им - легион.
Кроме того, если сайт достаточно трастовый, то Гугол прощает ему подобные дефекты. Ну, не совсем прощает, но напрочь не выкидывает. Попробуйте сделать молодой сайт без DESCRIPTION - и увидите, где окажутся его страницы.
Я вообще не понимаю: если можно сделать "как лучше", как черным по белому написано в Руководстве Гугла - зачем делать иначе?!
Признаться, я до сих пор не знаю, карта сайта HTML - это польза или зло?
1. С одной стороны, когда страниц на сайте мало - вроде, как польза. Особенно если вначале выводить ссылки на более свежие.
2. Если страниц за 1000, то по всем руководствам поисковиков это зло: страница, не имеющая контента, кроме ссылок. И, самое главное, для юзера такая карта сайта становится не полезнее прошлогоднего снега: какой маньяк полезет на 20-ю страницу смотреть, что там есть?!
3. Если же сделать ее структурированной - то чем она будет отличаться от основного навигационного меню?
Оттого и думаю: то ли сказать решительное "НЕТ" карте сайта в HTML-формате, то ли закрывать ее мета-тегом NOINDEX, на основе проведенного Вами эксперимента.
Тут дело не во времени. После сканирование Гугол хорошие страницы (с его точки зрения) отправляет в основной индекс, и они участвуют в поиске, приносят трафик. А плохие - соответственно, в так называемый "дополнительный" (не люблю этого слова), или вообще вычищает из индекса. И пока страница не "получшеет" - она хоть триста лет может не попасть в основной индекс.
Но Вы же понимаете, что если старый и большой сайт поставить на другое доменное имя - то он станет маленьким и молодым? Ну, может, не "маленьким" по объему, но вот по авторитетности - крохой.
В этом случае я целиком и полностью поддерживаю Рус-Ивана: старый и большой сайт переносить на новый домен - занятие не самое разумное.
Какая логика у продвиженцев - хоть убейте, не знаю! А вы спросите у них - что они сами ответят?
Получается, что если есть HTML-карта сайта, где на страницах из контента - только ссылки, то ее разумнее поставить с мета-тегом NOINDEX, чтобы не подсовывать Гуглу такую бяку для индексирования контента?
Ваша страница не находится в основном индексе.
Здесь уместнее несколько другая аналогия. "Спортивные машины бывают только обтекаемой формы и низкие - например, Феррари. Хм... значит, низкие обтекаемые машины - все быстрые?" Если так - то отчасти верно.
Я очень редко видел на своих сайтах страницы без PR, которые посещались бы роботом Гугла чаще, чем с PR=4, к примеру. Например, страницы разделов посещаются раз в три дня, хотя их никто не обновляет уже пол-года. А вот заставить переиндексировать какую-нибудь не-пиаристую "глубокую" по вложенности страницу при частичном смене контента на ней - например, заголовок поудачнее переписал, - труднее, в среднем недели две на это уходит.
Он не только по домену, но еще и по точному вхождению в кавычках не ищется, хотя в индексе страница есть. Это почти наверняка фильтр. Но ведь просто так фильтры не раздают! Значит, есть причина. Я вот увидел только эту, отсутствие описания. Тексты уникальны, ничего "черного" на сайте не замечено, дизайн обычный, не идеальный, но и без грубейших ошибок.