Вопрос ИМХО не "как запалил", а "за что запалил". Из Вашего описания не вижу ничего, что могло бы стать причиной сразу для всех. Что общего у сайтов, кроме хуизов? Может быть, среди бэков у всех были какие-то мощные источники, которые отвалились? Или общие доноры, которые стали плохими (порнушными, например)? Общее надо найти. Хуиз не криминал, если Вы не БенЛаден.
Perelman, ИМХО по Вашему описанию все не очень понятно. Иметь один хуиз - не преступление ни с какой точки зрения, кроме сеток, у Вас же нет перелинковки. А все остальное вообще чисто... Или, может, тематика наказуемая? Вы уверены, что они действительно были перед этим в топе? Как мониторите? Трафик тоже изменился в тот же день?
Maxoud, а Вы мое предыдущее всерьез приняли?
Нафлудили мы тут. Прошу прощения у ТС.
Ну, раз это работает, то предлагаю тогда создать плагин для Wordpress, вставляющий это все в каждую страницу. И продавать его. Рынок безграничен.
Before that we have to pray our Lord and Savior Google to write this Bible.
Это правда, но далеко не всегда есть возможность участвовать в ранних стадиях строительства. Даже скорее наоборот - чаще получешь сайт с проблемами на уровне движка, и с ним выкручиваешься.
Ну, я бы так не стал говорить... На самом деле, даже почитав сто раз мануал, там не получаешь ответов на все вопросы и возможные ситуации. Вот, например как исключить урлы, содержащие определенную последовательность символов, но разрешить урлы, содержащие те же символы + еще какой-то?
Например - исключить содержащие "tt=?"
Disallow: /*tt=? (в соответствии с мануалом)
А как при этом разрешить содержащие "qtt=?"? В мануале описано только, как исключить из запрещения урлы, имеющие определенное окончание, и все.
Поэтому ИМХО вполне нормально попробовать получить сторонние мнения.
Kost, Вы дали ссылку на мануал Яндекса.
Вот мануал Гугла
Команда Allow вовсе не отменяет последующих запрещений.
Для ТС надо так:
User-agent: *
Disallow: /papka/
Disallow: /papka1/
А если внутри запрещенных папок надо разрешить какие-то урлы, то использовать Allow.
P.S. Директива Kost для robots.txt
Сорри, не удержался. :)
За это время почему, в таком случае, не получить то же количество и качество ссылок - раз это так просто, с сапы - и не убедиться, что чего-то не хватает, чтобы обойти их?
Вот с чего:
Подобные выпадения именно одной страницы не раз наблюдал именно из-за дублей.
P.S. tutonhamon_, кстати, спасибо за интересную инфу насчет покупных ссылок.
lubekievua, исправьте метаданные:
По два html и head, но отсутствует title.
И код вообще кстати довольно мусорный, почистили бы.