А вот у меня сайтец попал после атаки ботами - наплодили страниц в блогах и ссылки внешние расставили (не продумал сначала безопасность и т.д.), - итог Гугл 4к+ в индексе, Яндекс - Главная онли. Причем Тиц 20, pr 2. Все стер - левые ссылки, спамленные блоги и т.д. Однако уже 2 месяца обратно не возвращает. Забрасывал проект, недавно хотел его вернуть "к жизни" и обнаружил 3.700 ссылок на мой сайт с таких же взломанных - говноссылки могут поспособствовать попаданию в фильтр? :\
получил официальный ответ (:
Добрый день!
Ситуация заключается в методе определения уникальности пользователей. Он заключается в том, что один и тот же посетитель для каждого из 2 разных дней может быть уникальным (то есть будет учтен при подсчете статистики для каждого из дней), а для отчетного периода месяц, он будет уникальным только 1 раз (то есть будет учтен при подсчете статистики 1 раз). Именно из-за этой тонкости при подсчете показателя итоговый показатель может быть больше, чем суммарный по дням.
Есть какие-нибудь новости по работе биржи? (:
Метрика в помощь, там и обнаружили)
Вообще это искусственное создание страниц, которое будет генерироваться с каждым поиском. Не есть хорошо. Рекомендовал бы Вам закрыть в robots.txt директиву - /search :)
Ну так эстетика же, ну)
Присвоенный регион - Москва = Россия.
По данной тематике я бы посоветовал оставить сайт без региональной принадлежности. А если и выставлять регион, то разумеется тот, в котором Вы живете (: