У меня таже история. Причем морда осталась на месте, а внутренние странички осыпались с 3 до 0 :(
–use_experimental_spamscore
–use_gwd
–use_query_classifier
Тут он еще явно каким-то образом классифицирует запрос.
По поводу спама: в защите от почтового спама используется некий коэффициент (ключ), которой вычисляется из письма и не должен превышать определенное значени, иначе письмо считается спамом. Вполне вероятно, что здесь у них что-то аналогичное используется. И если это так, то у меня возникает ощущение, что коэффициент зависит от запроса...
use_experimental_spamscore, use_spamscore - явно считают "коэффициент" спама. Тогда отсюда получается, что use_query_classifier узнает вероятность спама (заспамленность) по данному запросу. И потом use_spamscore решает: считать сайт спамом, учитывая запрос, или нет.
А на самом деле модули можно обзыавать, как хочется, поэтому не факт, что названия соответсятвуют действиям. Может быть это как раз вариант защиты, на случай появления такой ошибки :)
А про человеческий фактор - имхо, 90%, что правда ошибка всплыла.
Про то что не сообщалось: возможно просто очень редкий запрос, который пытается узнать 1 из 100 миллионов. И зачем рядовому пользователю говорить где-нибудь об этом?
У кого-нибудь адекватно проапдейтились старые сайты?
Вопрос в том проверялся ли сайт фильтром. Тут повышали релевантность страници за счет ссылок, те получилась хорошая оптимизация. Интересно было бы проверить: что будет, если на сайте А предпринять аналогичные действия.
можно адсенс повесить и будет регулярно приходить бот...
по идее должно работать. тебя может просто с хоста не выпускают?
Код формирует запрос на определение PR. А если точнее шифрует некоторым образом адрес и отправляет шифр вместе с реальным адресом. (что-то наподобии контрольной суммы)
Бог вылез из гриба.
Слушайте, а откуда это вообще пошло? (про фильтр)