xant

xant
Рейтинг
65
Регистрация
17.12.2008
it4nik:
и чем еще плохи кольца кроме выпадении любой одной из страниц этого кольца

Вообще кольца штука хорошая, если их правильно применять. Слишком короткие кольца поисковики вычисляют и разрывают. В частности, в кольце из двух страниц перераспределения веса не происходит, из трех тоже, а вот предела никто не знает. На слишком длинных кольцах эффект перелинковки уходит в посторонние ссылки (ну, не могут же у вас все ссылки быть только кольцевыми). Плюс длинные кольца рвутся довольно часто.

Шаманы говорят, что правильные кольца нужно плести тройной косичкой длиной 6-15 страниц в кольце (то есть страница 1 ссылается на страницы 2,3,4, страница 2 - на страницы 3,4,5, страница 10 - на страницы 11,1 и 2), плюс нужно линковать кольца между собой, желательно ссылками из текста страниц, от нуля до двух ссылок с каждой страницы. Так вы сможете вывести вес, накопленный в кольце, и приземлить его на нужных вам страницах с нужными вам анкорами.

DmitryNa:
Вот строка из лога:
81.19.66.89 - - [17/Dec/2008:08:21:11 +0300] "GET /discussthis/new/584 HTTP/1.1" 302 - "-" "StackRambler/2.0 (MSIE incompatible)"

Значит это точно робот Рамблера, но он не реагирует на общий запрет, как ему запретить каталог /discussthis/ и всё, что в нём?

На самом деле, запреты в robots.txt означают только то, что контент нельзя выкладывать в серп. Так же как теги noindex, meta robots, rel=nofollow и т.д. Сам файл robots.txt появился тогда, когда поисковики вдруг начали вываливать в серп и кэшировать конфиденциальные документы. Например, если нужно передать клиенту многомеговый файл, который не пролазит по почте, его выкладывают на сайт и дают ссылку. Но иногда такие ссылки всплывают, и роботы находят то, что им знать неположено.

В любом случае, роботы могут сканить всё, до чего смогут дотянуться. Я уверен, что и яндекс, и гугл сканят всё, что записано в robots.txt, просто делают это не основным пауком, а специальным "шпионом", которым проверяют на клоакинг.

Если нужно спрятать от роботов с гарантией, используйте простейший ajax.

Fresher:
Остался только один для меня вопрос - что делать с моими недешевыми -----<a самыми небесными металлическими железными конструкциями для a/> людей ----

Пересмотрите все сайты, на которых вы ставили ссылки. Есть подозрение, что вы понакупали очень много ссылок с ГС, сделанных исключительно для сапы. Яндекс такие сайты более-менее отслеживает и ссылки с них пессимизирует. То есть эффекта они не дают.

Дело даже не в тице/ПРе страницы, они то могут быть и почти нулевыми, скажем для страниц УВ3. Просто зайдите на морды этих сайтов и вы всё поймете сами, отличить сайт для людей от сайта для сапы довольно просто. Отказывайтесь от ГС и на сэкономленные деньги ставьте новые ссылки с точными анкорами на нормальных сайтах.

И делайте это быстро. Поисковики очень не любят, если на сайт было поставлено много ссылок, а потом они бац - и одновременно все исчезли. Значит, какие-то проблемы с сайтом.

Всего: 743