robots.txt рулит!
Ну да будет лучше! Если был бы маленький сайт, то можно было удалить урлы через панель! А так , да лучше 301
фильтр, так будет правильней!
Ну да, в первую очередь проблему в движке искать и будет вообще все ок
Ну мне кажется роботом быстрей можно очистить индекс! Думаю и в гугле там *опа!
Не проблема! Найди основной урл думаю с "/" а без "/" закрой в роботе!
Для начало нужно очистить индекс от мусора! Вы раньше этого не сделали - вот за вас это сделал Яша!
victor222 добавил 14.09.2011 в 00:49
Причина бана! Думаю так!
Еще странно то, что индексируются страницы, которые запрещены в роботе
так робот у меня дефолтный, я только дописывал пункты!
Что стало с подсчетом открытий? То 0 то 100. вообще не понятно!
Так что, нужно было просто поменять местами?
Вроде работает! А гуглу без разнице какие места, так получается?
Я раньше делал все вроде было ок! ну скажите пожалуйста ошибку - что не так!
Нет это не работает! Появляется вовсе весь код! Думаю php не работает там как оператор!