Как-то один совершенно новый сайт добавил в 2-3 социалки. Через пару недель в выдаче увидел несколько десятков копий вырванных с сайта кусков моего текста.
Были случаи, когда через месяц-два после вашей работы сайты улетали под фильтр?
А как? Допустим есть страницы:
data.php?cat=xxx
data.php?cat=xxx&pn=1
data.php?cat=xxx&pn=2
data.php?cat=yyy
data.php?cat=yyy&pn=1
data.php?cat=yyy&pn=2
data.php?cat=zzz
data.php?cat=zzz&pn=1
data.php?cat=zzz&pn=2
итд
Как запретить в роботсе индексацию страниц с параметром pn?
Первые спады на своих сайтах ощутил в конце февраля. Что там тестилось до этого, понятия не имею.
Я так понимаю, если сайт белый и все бэки естественные, то страшного не будет, если сразу после выхода сайта на него будут ссылаться семёрки, восьмёрки и девятки. Сайт будет отловлен фильтром и отправлен на проверку. Если всё чисто, докопаться не до чего, то и штрафовать не станут. Будет подозрение на покупку ссылок - отправят в долгий ящик.
* Panda Update 1.0: Feb. 24, 2011
* Panda Update 2.0: April 11, 2011
* Panda Update 2.1: May 10, 2011
* Panda Update 2.2: June 16, 2011
Откуда инфа?
Не обязательно светить сайт на форуме, чтоб его контент растащили. И так растащат ботами с выдачи.
После проспама по многотысячной базе? :)
Фильтр может быть наложен в ручном режиме, а может и в автоматическом (панда к примеру). Ответили, что в ручном режиме не накладывался. Людей, полностью вышедших из под фильтра панды, ещё не встречал.