Молодые сайты получают некий бонус, который держит их некторое время в топе, жаль что не по всем запросам. Вот в этот момент ПФ и начинает формироваться и считаться...
Но, ПФ вещь в себе и относительная... скорее является одним из сотен факторов, и я на него обращаю внимание только с точки зрения конвертации, юзабилити и правильной заточки трафика
у меня юса... сняли российские "регионалы"... до этого слал все на англицком в юса гугль
Так и чистить. Избавлялся от Панды, руками пол года зачищал все в гугле, пока он все "забыл"...
Было 500К+ страниц... В WMT и ручками, или по маске или поштучно...
Все зависит от ресурса, тематики, организации страниц, и т.п.
А для снижения процента, если это не бот, а живой человек, можно повесить скрипты ГА по событиям, например:
- пробыл на странице больше 15 сек
- навел курсор на картинку
- запустил закачку
- развернул текст
- лайкнул
- проскролировал страницу вниз и т.п.
За несколько лет и за несколько дней - 2 большие разницы.
И если есть сайт с товарами, с не одной сотней тысяч страниц, на котором движок не все корректно отрабатывает, то это фантастика? Или то, что панда поклала миллионы сайтов по всему миру за 1-2 месяца, тоже я придумал?
Тут народ задает ясельные вопросы, а Вы про то, что куда-то входит... а это уже школьная программа. Причем, в эту программу обязательная отдача 404 вошло не давно, как раз после выхода наказания в виде Панды.
Уязвимости есть у всех сайтов и они разные, я написал про вероятность одной из них.---------- Добавлено 05.12.2013 в 20:06 ----------
Спасибо за минус к репутации :) Очень надеюсь, стало легче...
Если сайт не будет отдавать 404, а некий свой контент, то вырастает число страниц на сайте, имеющие однотипный "нагенерированный" контент, со всеми вытекающими последствиями. И да, несколько новых 404 не загонят... а если на сайте всего 100 страниц, а внешних ссылок на несколько тыщ "битых" страниц и не отдавать 404, то выводы очевидны.
А просядет - вопрос к гуглу, я не афтор. Я написал, что согласно моему опыту - пока, видимо, Панда не пересчитает все битые входящие, не поймет что по ним корректно отдается 404 и т.п.
TC, тут может быть банальная попытка конкурентов, загнать сайт по Панду.
Нужно спокойно отдавать 404 и следить, чтоб не возникали дубли. Сайт может просесть на время, пока гугл не поймет, что этих страниц на сайте таки нет.
Все согласно моему опыту. Всякие случайные совпадения с реальными событиями или сайтами, являются только совпадениями.---------- Добавлено 05.12.2013 в 18:40 ----------
Замечательный способ загнать сайт под зверинец. Не известно откуда входящие, с какой кармой и т.п., а мы берем и 301 на нужные страницы сайта... этапять
Ajax гугль читает и с удовольствием...
ТС, я бы разбил на страницы и не заморачивался с тошнотой... тут как раз уникальность страницы растет. особенно для почти одинаковых товаров... если конечно все комменты не одинаковые... тогда их только модерировать
Мне б ваши проблемы... у меня комменты оч мало не пишет...
Красный маркер - наличие ключа в анкоре... а где он, в середине, в начале или в конце статьи - дело 10ое
Очевидно, что уникальность и полезность и линковка играют свою роль. Но, согласном моему опыту, тут немного иная гипотеза рисуется:
- мой новый сайт гугль слопал за 10-12 дней ~20К страниц
- в соплях было все, кроме 2-3 страниц вместе со стартовой
- через время в основной индекс начал добавлять страницы, грубо, за 1 неделю добавил 200+ новых
Думаю ситуация следующая - сначала некий быстробот жрет контент не пережевывая, затем некий другой по аналогии с желудком сортирует его - что фтопку, а что внутрь организьма :)
Я бы на месте ТС не торопился бы, а подождал результатов переваривания немного дльше.