Bdiang

Bdiang
Рейтинг
102
Регистрация
19.07.2006

Вот вроде бы основной абзац, отражающий о чем статья:

So today at SMX Advanced, sculpting was being discussed, and then Matt Cutts dropped a bomb shell that it no longer works to help flow more PageRank to the unblocked pages. Again — and being really simplistic here — if you have $10 in authority to spend on those ten links, and you block 5 of them, the other 5 aren’t going to get $2 each. They’re still getting $1. It’s just that the other $5 you thought you were saving is now going to waste.

Перевод со своими дополнениями:

Итак, сегодня на SMX Advanced (выставка в США по поисковому маркетингу - прим.) обсуждалось управление распределением PR, в ходе которого Мэтт Катс спалил тему (не знаю как правильнее перевести bomb shell - прим.) о том, что помочь увеличить поток PR на незакрытые страницы больше нельзя. Т.е, представим, что страница может передать ссылками 10$. На ней стоят 10 ссылок на разные страницы. Если закрыть 5 их них в nofollow, то остальные 5 будут все так же передавать по 1$. А "сэкономленные" 5$ - деньги на ветер.

Дальше по статье, автор рекомендует не бежать, сломя голову, убирать nofollow с ссылок, а подождать развития этой темы, оффициальных комментариев на блоге Мэтта Катса.

Беобахтер:
а на последний вариант урла есть ссылки, или его принуждают в карту сайта включать? Если у робота нет возможности узнать о пути, он им и не пойдёт.

История ТС об этом умалчивает :) Но судя по посту ТС ненужные ссылки уже найдены как минимум одним поисковиком, так что исключение из sitemap не помешает роботу долбиться по найденным ссылкам.

Беобахтер:
Директива - да, нестандартная. Только Гугл почему-то и без неё разбирается.

Разберется или нет - зависит от "кривости" рук веб-мастеров :) Гугл не всесилен. Вообще, для гугла есть отличная штука - <link rel="canonical" href="" />

Беобахтер:
директива Clean-param Вам в помощь.

Не поможет в этом случае:

Jason_B:
/(X(1)A(w3vqtHcMygEkAAAAMDYzYjc5MjEtYjJkNS00MTcxLWIwZjMtNTFkOThlYzYwM2M5TvPdeej8RmnD5UGQrxZXcGpdLtc1))/ShowArticle.aspx?ID=1024&AspxAutoDetectCookieSupport=1

да и Гугл Clean-param не понимает

T.R.O.N, в каком смысле не любите? В плане отладки?

BrokenBrake:
хуже всего, когда люди начинают давать безграмотные советы.
Стыдитесь и больше так не делайте.

Не нужно переходить на личности и застыживать меня. Вопрос был задан конкретный:

Jason_B:
Подскажите, как прописать в robots.txt следующий атрибут:
Не индексировать вышеупомянутые страницы с бредовым набором непонятных букв, а в ключать в индекс только те, которые соответствуют этому формату:

На что был дан, конкретный ответ.

BrokenBrake:
Символы подстановки в стандарт robots.txt не входят, их понимает только Google.

Кстати спецсимвол "*" понимает не только Гугл, а еще и Яндекс, если Вы не знали.

BrokenBrake:
Вам можно попробовать в движке как-то определять, будет ли абракадабра в URL, и если будет, выводить метатег, запрещающий индексацию.
BrokenBrake:
Кстати, что за говнодвижок? Разработчикам этой чудо-CMS нужно руки оторвать и засунуть в то место, которым они думают.

Метатег, запрещающий индексацию - идеальный вариант, но вопрос был задан про robots.txt. Кроме того, бывают ситуации когда оптимизатор не имеет возможность что либо менять в движке. Может сначала стоит поинтересоваться у ТС, что да как, вместо того, чтобы судить и делать выводы?

WSG:
Лучше ещё установить и FireFox, т.к. популярнее оперы.
T.R.O.N:
С каких пор?

Опера действительно популярнее лиса. Хоть и не намного, но это приличное количество в абсолютных величинах уже при 100 уников в сутки. Так что, стоит поставить и то, и то.

Поскольку в обоих вариантах присутствует параметр AspxAutoDetectCookieSupport, то проще всего так

Disallow: *AspxAutoDetectCookieSupport*

Господа, вопрос в тему. В панели вебмастера гугла у меня есть ссылка с megastock.ru. Она редиректная (302 редирект) вида redirect.aspx?link=http://site.ru

Как это объяснить?

У "в рот мне ноги" появился конкурент :D

Может баян, но по крайней мере сюда это не выкладывали (поиск ничего не дал)

Всего: 872