bober

Рейтинг
161
Регистрация
07.02.2005
Должность
клиентское SEO
Интересы
programming...
Perelman:
Вот собственно, как гугл запалил все 12? по айди аналитики и адсенсу?

Вопрос ИМХО не "как запалил", а "за что запалил". Из Вашего описания не вижу ничего, что могло бы стать причиной сразу для всех. Что общего у сайтов, кроме хуизов? Может быть, среди бэков у всех были какие-то мощные источники, которые отвалились? Или общие доноры, которые стали плохими (порнушными, например)? Общее надо найти. Хуиз не криминал, если Вы не БенЛаден.

Perelman, ИМХО по Вашему описанию все не очень понятно. Иметь один хуиз - не преступление ни с какой точки зрения, кроме сеток, у Вас же нет перелинковки. А все остальное вообще чисто... Или, может, тематика наказуемая? Вы уверены, что они действительно были перед этим в топе? Как мониторите? Трафик тоже изменился в тот же день?

Maxoud, а Вы мое предыдущее всерьез приняли?

Нафлудили мы тут. Прошу прощения у ТС.

Ну, раз это работает, то предлагаю тогда создать плагин для Wordpress, вставляющий это все в каждую страницу. И продавать его. Рынок безграничен.

Before that we have to pray our Lord and Savior Google to write this Bible.

Maxoud:
легко обходится на ранних стадиях строительства.

Это правда, но далеко не всегда есть возможность участвовать в ранних стадиях строительства. Даже скорее наоборот - чаще получешь сайт с проблемами на уровне движка, и с ним выкручиваешься.

Maxoud:
Если бы ТС хотел учиться, он прочитал бы не только мануал. А ему нужно было на блюдечке.

Ну, я бы так не стал говорить... На самом деле, даже почитав сто раз мануал, там не получаешь ответов на все вопросы и возможные ситуации. Вот, например как исключить урлы, содержащие определенную последовательность символов, но разрешить урлы, содержащие те же символы + еще какой-то?

Например - исключить содержащие "tt=?"

Disallow: /*tt=? (в соответствии с мануалом)

А как при этом разрешить содержащие "qtt=?"? В мануале описано только, как исключить из запрещения урлы, имеющие определенное окончание, и все.

Поэтому ИМХО вполне нормально попробовать получить сторонние мнения.

Kost, Вы дали ссылку на мануал Яндекса.

Вот мануал Гугла

Команда Allow вовсе не отменяет последующих запрещений.

Для ТС надо так:

User-agent: *

Disallow: /papka/

Disallow: /papka1/

А если внутри запрещенных папок надо разрешить какие-то урлы, то использовать Allow.

P.S. Директива Kost для robots.txt

Уберите Allow и все. Точка. Больше ничего не нужно.

Сорри, не удержался. :)

Maximus325:
Я наблюдаю за ними уже около года, раз в неделю монитрю беки и все обновления. Не уверен что там есть ссылки которые нам не видны.

За это время почему, в таком случае, не получить то же количество и качество ссылок - раз это так просто, с сапы - и не убедиться, что чего-то не хватает, чтобы обойти их?

Maximus325:
Еще раз советую полностью избавиться от дублированного контента -

С чего вы взяли что он там есть??

Вот с чего:

Maximus325:

А это то тут причем? Я ж говорю, проблема в одной единственной странице.
Дубли могут быть засчет вывода анонсных и навигационных блоков - но это все в пределах нормы.

Подобные выпадения именно одной страницы не раз наблюдал именно из-за дублей.

P.S. tutonhamon_, кстати, спасибо за интересную инфу насчет покупных ссылок.

lubekievua, исправьте метаданные:

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"><html xmlns="http://www.w3.org/1999/xhtml"><head><meta http-equiv="Content-Type" content="text/html; charset=windows-1251" />
<html dir="LTR" lang="ru">
<head>

По два html и head, но отсутствует title.

И код вообще кстати довольно мусорный, почистили бы.

Всего: 1329