human

human
Рейтинг
78
Регистрация
05.02.2004
Должность
главный

cred.ru - работает.

А с эти вирт.кредитки PayPal проходят???

human:
Апдейт есть. Скудный только шибко

Смотрю с утра:

- из 110 ссылок, проставленных с прошлого апдейта - проиндексировались 29

- тематика "услуги связи" 2 сайта по одному и тому же среднечастотнику: сайт, по которому ничего не делалось поднялся с 4-го на 1-ое место. Сайт, на который покупались ссылки - опустился с 5-го на 6-ое

- медицинские услуги: никаких изменений несмотря на активные действия

- недвижимость: чуток поднялись, чуток опустились

У Yahoo для robots.txt есть дополнительная инструкция Crawl-delay. Подробнее тут:

/ru/forum/23973

Как с остальными поисковиками - не знаю. Может кто ещё подскажет? Яндекс, например, советует запретить его в robots.txt в подобных случаях :)

http://webmaster.yandex.ru/faq.xml?id=502499#overload

Если же отвлечься от robots.txt и meta-тэгов, то можно после определенного количества запросов подряд выдавать на "If-Modified-Since" - код 304 без загрузки содержимого. Однако, это будет уже явно манипулированием выдачи для роботов. Могут быть неприятные последствия в виде объяснений с модераторами и возвращения в индекс сайта.

Normy:
В robots.txt пропиши:

User-agent: *
Crawl-delay: 30



30 - секунды между заходом одного и того-же бота. Можно менять как угодно.

Google и Яндекс - не знают такого.

Yahoo и MSN - знают.

Апдейт есть. Скудный только шибко

Подобные системы - последний камень, который кинули в гугла SЕО. Не забанят и не пессимизируют. Раз уж гугл не может, так Яндекс и подавна. Если приведенная в пример система получит еще большее распространение, то ссылочный фактор придётся совсем отключать поисковикам или кардинально изменять.

Почитайте подробнее про систему. Про её аналог в компьютерре недавно писали.

Однако, использовать её или нет - ваш, конечно, выбор. Только вы забываете, что поисковики - наши друзья и ставить перед ними задачу, которая кардинально изменит алгоритмы - нечестно.

Предполагаю, что ответ кроется тут:

MOBBI:
1) Насколько сильно надо менять контент и надо ли его менять вообще?
2) Могут ли быть какие-либо санкции к "головному" сайту
3) Может кто уже шел по такому пути, есть ли еще какие-нибудь "подводные камни"?

1. Чем сильнее тем лучше. Не менее 20% на странице должно быть уникально. Лучше - до 40%. А ещё лучше - не делать клонов, а создавать уникальные проекты - не просто для роботов, но и для людей. На этих проектах можно просто рекламировать головной.

2. Нет. В противном случае - так можно было бы "валить" конкурентов.

3. Знаю тех, кто шли - получили 32 склееных сайта. Причём головной - приклеялся к одному из сателлитов.

PR
iruy:
подскажите пожалуйста, как определить откуда берется PR ц сайта, зная его домен? особенно интересно как понять, не склеен ли домен, не от склейки ли PR?

be1.ru/stat

Смотрите URI в гугл-кэше - определяете, всё ли в порядке с доменом и его ли это PR.

Смотрите список бэклинков в гугле - определяете, откуда PR.

Смотрите URI на сайт на странице каждого бэклинка в гугле - определяете его это PR или доменов, которые к нему приклеены.

Есть подарочный сайт PR 5, тИЦ 900, ЯК, DMOZ. Продаётся ссылка с внутренней страницы с PR 4. Интересует?

LeonidS:
30? Только 2 почему-то.... Главную и еще одну... И так уже 2-3 месяца

База Гугла в последнее время нестабильна. Смотрите по датацентрам:

http://66.102.7.99/search?hl=ru&q=site%3Asphera.neonstudio.ru&btnG=%D0%9F%D0%BE%D0%B8%D1%81%D0%BA&lr=lang_ru

Тут - 30 страниц

Всего: 846