индексация robots.txt и выполнение директив robots.txt это как бы разные вещи. гугл считает robots.txt, согласно директиве не будет его индексировать, однако все директивы будет продолжать отрабатывать---------- Добавлено 22.11.2014 в 02:13 ----------
там какой-то пипец с кодами...
/ru/news/17064
зы. то что вы называете "диссалоу" (Disallow) это директива для robots.txt. а то что вы имеете в виду это Disavow
"Если не позвоните мы вычислим вас по IP"
если выпить из бутылочки с наклейкой яд, то рано или поздно почувствуешь легкое недомогание...
эта тема спалена еще 4 года назад
http://googlewebmastercentral.blogspot.de/2010/04/using-site-speed-in-web-search-ranking.html
да и фактор вовсе не ключевой... просто один из многих...
складывается впечатление, что сеошнеги изо всех сил пытаются спалить гуглу метод накрутки, а противный гугл упирается и в упор не хочет делать алгоритм, который бы их всех забанил... видимо мало тут тем типа мой сайт вылетел из гугла, надо больше...
положительных примеров нет, но есть отрицательный. был сайт с ssl сертификатом, много лет с ним жил, потом забыли оплатить, он просроченный еще долго висел. сайт перевели на http, забили на просроченный сертификат и никаких проблем не было. однако вскоре после объявления о том, что ssl является фактором ранжирования сайт с просроченным сертификатом улетел по главному ключу аж на 10 страниц назад. после того как сертификат убрали совсем сайт начал возвращаться потихоньку. сейчас заказали новый сертификат, так что возможности проследить вернулся бы он без сертификата назад к сожалению нет
в algoroo зафиксирован непроименнованный шторм 25 числа. видимо подкручивают пингвина.
видимо из разных датацентров берется инофрмация
забить и забыть