Ахахах, а подучите-ка матчасть, особенно про то, как происходит циркуляция/распределение PR по сайту. Ну или хотя бы просто прикиньте, откуда берётся PR у страниц, на которые нет внешних по отношению к сайту ссылок, и куда он потом передаётся, и почему не весь.
Кроме уменьшения притока PR извне могло сказаться и банальное увеличение кол-ва страниц на самом сайте, если таковое имело место.
Ippi добавил 05.04.2010 в 05:04
А, у вас же активный блог... С каждым новым постом входящий PR приходится размазывать по большему кол-ву страниц, даже если в движке ничего не накосячено.
ну, например, из чего попроще:
Backlink Watch
Yahoo! Site Explorer
Open Site Explorer
bizcom,
А мне сейчас показывает PR4 для обеих версий. Возможно, вы просто поторопились во время апа циферки смотреть.
Нормально отнесётся. Гугл рекомендует использовать rel="canonical" тогда, когда нет возможности использовать редирект 301, т.е. метатег — это запасной вариант.
Trean, вы никогда не видели страниц, закрытых в robots.txt, и попавших в индекс в виде одного лишь URL'а? И намёк в инструкции по удалению контента вас тоже ни в чём не убеждает?
А фрагмент интервью вам ни о чём не скажет, или вы из тех, кто считает, что Каттс обычно врёт, чтобы затруднить жизнь оптимизаторам?
Ну а то, что удаление страниц по запросу не происходит навсегда, вас тоже не смущает?
Ippi добавил 31.03.2010 в 03:10
Во, можете даже видео посмотреть: Uncrawled URLs in search results.
Вот, кстати, цитатка из Webmaster Tools Help:
Ну а если страница уже в индексе, то тут блокировать уж точно бесполезно, даже если её совсем удалить (собственно, робот об этом уже и не узнает, ведь ему запретили туда заглядывать). Сколько тут было топиков про непропадающие из индекса удалённые страницы, закрытые в robots.txt?
Кстати, ко второму предложению они забыли добавить, что срок действия запроса на удаление ограничен.
Так оно говорит не залогиненным юзерам:
А так — залогиненным:
Но смысл в целом один и тот же.
Ippi добавил 31.03.2010 в 00:23
А ещё у страниц с noindex, не заблокированных в robots.txt, есть большое преимущество перед заблокированными — они не превращаются в чёрную дыру для PageRank'а, а накапливают и передают его обычным образом, хоть и виртуально отсутсвуют в индексе.
Строго говоря, в robots.txt прописывается не запрет к индексации, а запрет доступа для роботов, что далеко не одно и то же. Хотите запретить именно попадание в индекс — откройте страницы для роботов и пропишите туда noindex. Если страницы уже в индексе, запрос на удаление ускорит процесс.
И что это за раздел "запрещенный урл к индексации"? Насколько я помню, там фигурирует фраза "Заблокирован файлом robots.txt" ("Restricted by robots.txt" в англ. версии).
Вам сделают склейку с мусорной корзиной после таких оптимизаций :)
Ну почему же нельзя? Добавить RewriteCond с анализом %{HTTP_USER_AGENT}, и ага.
Но таки да, это явный клоакинг с прямой дорогой в бан.