victor222

victor222
Рейтинг
198
Регистрация
29.10.2009
esys:
самый простой способ в robots.txt
Disallow: /catalog.html

robots.txt рулит!

murvuz:
Гугли проиндексированные, закрытые в роботсе страницы может месяцами выкидывать.
А 301 передаст ссылочное, если ссылки стоят на неправильные урлы.

Ну да будет лучше! Если был бы маленький сайт, то можно было удалить урлы через панель! А так , да лучше 301

murvuz:

Это не бан! ;)

фильтр, так будет правильней!

murvuz:
Лучше 301 сделать.

Ну да, в первую очередь проблему в движке искать и будет вообще все ок

Ну мне кажется роботом быстрей можно очистить индекс! Думаю и в гугле там *опа!

Не проблема! Найди основной урл думаю с "/" а без "/" закрой в роботе!

Для начало нужно очистить индекс от мусора! Вы раньше этого не сделали - вот за вас это сделал Яша!

victor222 добавил 14.09.2011 в 00:49

Positiff:

Единственное что меня сейчас смущает, это то что в вебмастере 14 страниц - это 7 страниц - дублей с закрывающим слешем.

Причина бана! Думаю так!

Еще странно то, что индексируются страницы, которые запрещены в роботе

alexbard:
Cell прав, там есть нормальный роботс, пробуйте его.

так робот у меня дефолтный, я только дописывал пункты!

Что стало с подсчетом открытий? То 0 то 100. вообще не понятно!

kimberlit:
А второе предложение было адресовано кому?

ЗЫ Для забаненных в Яндексе: http://help.yandex.ru/webmaster/?id=996567

Так что, нужно было просто поменять местами?


Allow: /load/3-1-0-4$
Disallow: /load/3-
Allow: /load/5-1-0-7$
Disallow: /load/5-

Вроде работает! А гуглу без разнице какие места, так получается?

kimberlit:
А мануал читать не пробовал? Про приоритет директив, например.

Я раньше делал все вроде было ок! ну скажите пожалуйста ошибку - что не так!

smart1k:
<?php str_replace(array('<span class="catnameUZ73">', '</span>'), '', $CAT_NAME$) ?>

Нет это не работает! Появляется вовсе весь код! Думаю php не работает там как оператор!

Всего: 624