cred.ru - работает.
А с эти вирт.кредитки PayPal проходят???
Смотрю с утра:
- из 110 ссылок, проставленных с прошлого апдейта - проиндексировались 29
- тематика "услуги связи" 2 сайта по одному и тому же среднечастотнику: сайт, по которому ничего не делалось поднялся с 4-го на 1-ое место. Сайт, на который покупались ссылки - опустился с 5-го на 6-ое
- медицинские услуги: никаких изменений несмотря на активные действия
- недвижимость: чуток поднялись, чуток опустились
У Yahoo для robots.txt есть дополнительная инструкция Crawl-delay. Подробнее тут:
/ru/forum/23973
Как с остальными поисковиками - не знаю. Может кто ещё подскажет? Яндекс, например, советует запретить его в robots.txt в подобных случаях :)
http://webmaster.yandex.ru/faq.xml?id=502499#overload
Если же отвлечься от robots.txt и meta-тэгов, то можно после определенного количества запросов подряд выдавать на "If-Modified-Since" - код 304 без загрузки содержимого. Однако, это будет уже явно манипулированием выдачи для роботов. Могут быть неприятные последствия в виде объяснений с модераторами и возвращения в индекс сайта.
Google и Яндекс - не знают такого.
Yahoo и MSN - знают.
Апдейт есть. Скудный только шибко
Подобные системы - последний камень, который кинули в гугла SЕО. Не забанят и не пессимизируют. Раз уж гугл не может, так Яндекс и подавна. Если приведенная в пример система получит еще большее распространение, то ссылочный фактор придётся совсем отключать поисковикам или кардинально изменять.
Почитайте подробнее про систему. Про её аналог в компьютерре недавно писали.
Однако, использовать её или нет - ваш, конечно, выбор. Только вы забываете, что поисковики - наши друзья и ставить перед ними задачу, которая кардинально изменит алгоритмы - нечестно.
Предполагаю, что ответ кроется тут:
1. Чем сильнее тем лучше. Не менее 20% на странице должно быть уникально. Лучше - до 40%. А ещё лучше - не делать клонов, а создавать уникальные проекты - не просто для роботов, но и для людей. На этих проектах можно просто рекламировать головной.
2. Нет. В противном случае - так можно было бы "валить" конкурентов.
3. Знаю тех, кто шли - получили 32 склееных сайта. Причём головной - приклеялся к одному из сателлитов.
be1.ru/stat
Смотрите URI в гугл-кэше - определяете, всё ли в порядке с доменом и его ли это PR.
Смотрите список бэклинков в гугле - определяете, откуда PR.
Смотрите URI на сайт на странице каждого бэклинка в гугле - определяете его это PR или доменов, которые к нему приклеены.
Есть подарочный сайт PR 5, тИЦ 900, ЯК, DMOZ. Продаётся ссылка с внутренней страницы с PR 4. Интересует?
База Гугла в последнее время нестабильна. Смотрите по датацентрам:
http://66.102.7.99/search?hl=ru&q=site%3Asphera.neonstudio.ru&btnG=%D0%9F%D0%BE%D0%B8%D1%81%D0%BA&lr=lang_ru
Тут - 30 страниц