Насколько видел, новые материалы добавлялись регулярно. Но структура не менялась.
Сайт конкурента жил в индексе с 2005 года, практически не менялся, собирал низкочастоный траф, примерно 10К в сутки. Две недели назад оказался в бане.
Такое впечатление, что даже если на сайте ничего не менять, он попадает под фильтры из-за изменения алгоритмов гугля. Раньше устраивал, в новых условиях перестал.
удалил, сорри
Сколько ссылок на вас и на вашего конкурента? Может зря не покупали.
Если перезагрузка страниц не делалась, в логах дубликатов IP не увидите. Человек мог же не перезагружать страницу, а кликать по объяве...
СОРМ у провайдера перед выборами не успевает запросы обрабатывать :)
Восемь h1 на странице.
Если у вас на сайте один уникальный посетитель в сутки, то адназнача да! 😂---------- Добавлено в 12:08 ---------- Предыдущее сообщение было в 11:59 ----------
Задним умом пришла мысль, что код GA - тоже JavaScript. Может он свою лепту вносит?
Трудно сказать, что может торможить броузер у клиентов, мы же их компьютеры не видим.
ЗЫ: формы поиска на главной тоже нет?
Какой смысл? У посетителей компы разные, количество запущенных процессов разное. JavaScript достаточно сильно тормозит процесс загрузки на клиенте. У меня, где на сайтах нет JavaScript (и Adsence c JavaScript) время загрузки очень быстрое по GA.
ЗЫ: Причем здесь IBM XT. Например, у меня на ноутбуке с вистой, если из соседних сессий жена не разлогинилась - торомоза жуткие.
Меня вот в быстрых стартах всегда смущало последующей сохранение динамики прироста внешних ссылок. Думаю, для гугла это тоже очевидный фактор для анализа и выводов.