MxWhite

Рейтинг
136
Регистрация
28.05.2010

Вот и я не могу понять, по словам ведущего семинара - инфо от сотрудника Яндекса. Просто фактически мы используем метрику в своих целях, так что мешает использовать ее Яндексу? Понятно, что нам об этом никто не скажет. Но на конференции настоятельно просили убрать.

dvu-v, Ну сайт не то чтобы уж совсем г. ну есть немного, просто весь вопрос в том как он туда попал, при чем попал теми страницами - которые надо, не внутряком каким-нибудь, а мордой.

Про Ucoz, нужно будет смотреть что к чему после следующего апа, если он там и останется - делать выводы, а пока просто - ждать.

dvu-v:
У знакома в питере похажая ситуация. Вч не лез в топ, нч ок были, сейчас вч на 4 месте нч в топ 20.

dvu-v добавил 22.11.2010 в 13:29

Пусть и шлак запрос, но все равно, "танцевальный мат", там первые две позиции гс на народе теперь :)))

Да вот дело в том, что вылез гаденыш по нужным запросам, траф в разы поднялся, теперь понять бы с каких делов)))

Ну хотя стоит подождать, вот после след. апа и посмотрим.

После апа вылез сайт в топ, самое интересно, что он сделан на Ucoz, сделан давно и вели его так сказать чтобы было, теперь он занимает 2 позиции по весомым ключикам, ссылок на него кот наплакал и все на одну продвигаемую страницу, а вылезла в топ то морда, то категория.

Dram:
Господа нужно знать следующее:

1. Если в роботс.тхт урл запрещен к индексации - перейдет ли по нему робот Яши или железно нет?

2. При заходе на сайт всегда ли он обращаается к файлу роботс.тхт или нет?

У меня не только перешел, а еще и проиндексировал страницу которая запрещена в роботс.

Не могу только понять одно, расширенный поиск и сайт аудитор показывают 92 страницы в поиске, как и было, а в вебмастере 170 и новые странички. Как так?

Нет ну на укозе тоже самое, просто получится, что вы наплодите дублей, можно попробовать закрыть старые адреса в роботсе, говорят что примерно через месяц - два, старые страницы вылетают, а новые будут в индексе и по новому адресу, просто пока сайт месяц - это одно, а вот когда ему будет уже год - тогда точно менять ничего не стоит. Ну а решать вам.

Сам недавно сменил, но я редирект прописывать не стал, сайт тоже молодой, трафика с гулькин нос, поэтому запретил в роботсе индексацию по старому адресу, снес страницы через delurl и через два апа в поиске все новые страницы с новыми адресами, а старых нет. Тоже самое проделал в гугле, но благо страниц было не много, если у вас их много - сложнее.

stasnokia:
MxWhite, я не закрываю. Однако можно и закрыть.


Уточните вопрос. Не очень понятно!
Попробую догадаться - если закрыть */page/* (так вроде по правилам в robots-е) (3/4/5/6 и т.д) то site.ru/category будет доступна и будет индексироваться.

Спасибо, именно это и хотел уточнить, просто вылазят эти плохие страницы, а страницы с самим контентом хуже ранжируются, дубли))) Вот мне и захотелось их закрыть, но дело в том что продвигаю некоторые категории, и там мне первая страничка нужна, она при открытии отображается как сайт.ру/категория, а вот после переходов на вторую страницу и назад сайт.ру/категория/паедж/1 вот и возник вопрос.

Всего: 445