А может быть поделом колбасит? Обратите внимание, то Гугл рекомендует в качестве анкора ссылок использовать бренд. Вам это ни о чем не говорит? Вы себе можете представить, что какая-то из известных торговых марок из-за взбрыкивания какой-то поисковой системы начала переносить свой сайт с домена на домен? И как поисковая система должна относиться к тем, кто так поступает?
Вот мой сайт:
Referring domains 824
External BackLinks 8,547
Indexed URLs 23,319
Citation flow 47
Trust flow 46
25 апреля потеря 2/3 трафика с Гугла. Трафик остался исключительно по случайным НЧ. Главная страница по моим ВЧ плавает в районе 500 страницы.
Взял первые три сайта из топа по одному ВЧ
Referring domains 97
External BackLinks 277
Indexed URLs 118
Citation flow 31
Trust flow 21
Referring domains 493
External BackLinks 263,771
Indexed URLs 842,381
Citation flow 46
Trust flow 30
Referring domains 180
External BackLinks 341
Indexed URLs 12
Citation flow 15
Trust flow 17
В общем, ваша теория идет в мусорную корзину. А вот мои наблюдения подтверждаются полностью. В топе сидят либо сайты, которые практически не продвигались, либо сайты с очень большим количеством страниц.
С такой атакой не сталкивался. Подозреваю, что заказчику атаки это обошлось в очень приличную сумму. В моем случае с атакой где-то в 80 Мбит с кратковременными пиками в 500 Мбит сторонний сервис помогал очень эффективно, но только до тех пор, пока не прописал в DNS MX-запись для почты. В результате атаку переключили напрямую по IP. Пришлось переехать на хостинг с защитой. Если будете идти по пути сторонних сервисов, не совершайте моей ошибки. Сразу настраивайте почтовые ящики на корпоративную почту Гугла. И будьте готовы быстро сменить IP сервера или переехать на другой хостинг, если боты начнут атаковать по IP по старой памяти. В найденных мною сервисах цены на защиту от атаки от гегабита были исключительно договорные.---------- Добавлено 06.08.2012 в 14:14 ----------
Сразу видно голого теоретика. Если у вас мощный сервер и отличное ПО на нем, которое невозможно завалить количеством запросов, вам просто начнут забивать входящий канал. Внутри сервера это уже никак не решается. Нужно фильтровать трафик на подступах к нему, где каналы еще широкие. Без сторонних сервисов этот вопрос не решается в принципе.
Извините, а как вы предлагаете "закрыть брешь"? Я уже прошел через все этапы этого процесса и могу сказать, что вопрос этот очень не простой и не дешевый, а главное, совершенно не гарантированный. Если серьезно возьмутся, то все равно завалят. Одно успокаивает, что в данный момент потенциальному заказчику успешная DDoS атака обойдется на порядок-два дороже, чем мне защита, а защититься я смогу гораздо оперативнее, чем ранее.
Все зависит от интереса ПС к сайту и везения. Вполне может хватить и 1-2 дней, чтобы недоступные роботу страницы выпали из индекса. Каковы будут последствия после возвращения в индекс тоже доподлинно не известно. В теории считается, что ПС не любят, когда доступ к сайту нестабилен, но организация сети Интернет по определению не гарантирует никакой стабильности. В моем случае выпавшая в результате атаки главная страница после возвращения в индекс вернулась на прежние места в выдаче.
Вообще, посчитайте, сколько вы теряете в результате недоступности сайтов. Может быть вам целесообразно воспользоваться сторонним сервисом по фильтрации трафика или хостингом с защитой от DDoS.
В каком-то топике пробегало, то если вы посмотрите тот же отчет, но с фильтром поиска по картинкам, то получите старые значения.
Я про это и говорю. Тенденция идет к тому, что то, то хорошо для пользователя становится плохо для поисковой системы. Пользователь не должен сразу получить ответ на свой вопрос, его нужно поводить за нос как можно дольше. Пользователь не должен сразу получить всю интересующую его информацию и выбрать именно то, что ему нужно все по той же причине. Пользователь не должен получать именно тот кусок информации, который ему нужен, ему нужно вывалить все и сразу. Пользователь не должен получать всю интересующую его информацию в одном месте в качественном виде, он должен по крупицам собирать его из выдачи ПС среди кучи отстойного рерайта, ложной информации, мошеннических предложений. Увы, но такова тенденция.
Это уже издевательство над пользователем в угоду поисковой системе. Вы себе представляете страницу с 1-4 тыс. комментариев, не разбитых на страницы? Впрочем, и поисковая система не станет такое индексировать, т.к. страница может начать весить уже мегабайты. Заставлять пользователя делать лишние переходы, чтобы не дублировать тексты, тоже не дружелюбно, но зато как красиво все выглядит с токи зрения ПФ.
Под мой случай это тоже в полной мере не подходит, т.к. есть самые разные варианты, опровергающие это. Помимо этого, это еще большая глупость со стороны поисковой системы. Возьмем популярный формат блога. Есть основная запись и комментарии к ней. Как выводить комментарии? Все скопом? А если комментариев тысяча или несколько тысяч? Значит нужно выводить комментарии постранично какими-то порциями. Как тогда выводить основную запись: полностью отдельно от комментариев, только на первой странице комментариев или на каждой странице комментариев? Для пользователей сайта предпочтителен последний вариант, т.к. на какую бы страницу комментариев ты не попал, всегда видно, что обсуждается без лишних телодвижений. Для этой же цели существуют различного рода превью. Пользователь должен иметь хоть какое-то представление, стоит ли ему идти дальше по ссылке или нет. Если ваше утверждение верно, то Гугл начал бороться с тем, что стало нормой для удобства пользователей сайтов.
В общем, алгоритм критерия полезности страницы в Гугле для меня по прежнему остается загадкой.
Во-первых, "дубликат" - это понятие весьма относительное. Например, у меня на сайте пользователи размещают практически одни и те же тексты. Разница может быть всего в несколько слов, но именно эти слова и являются ценными для остальных пользователей и именно по ним они эти тексты и находят.
Во-вторых, ваше предположение скорее всего не верно. У меня на сайте из статей (дубликатов на сайте у них нет) в число важных попало менее половины. Только не надо говорить про дубликаты на других сайтах, т.к. в число важных попали статьи, у которых однозначно есть дубликаты на других сайтах, а мой сайт не является их первоисточником. Просто в конце прошлого и в начале этого века не считалось зазорным перепечатывать чужие статьи с разрешения автора.
Вопрос остается открытым.