Не могу понять как его реализовать, что вообще генерирует новые ссылки? .htcaccess вроде не причем (почитал, обычно его используют, чтобы получить ЧПУ и с помощью его же и устанавливают 301 редиректы, но на каждую страницу, а их около 10000).
подскажите, выкидывать такой роботс в корень сайта? Хуже не будет?
у меня изначально яндекс индексировал 3000 страниц, в то время как гугл индесировал 12000-13000 страниц, сейчас в яндексе 2000, в гугле 10500. Но у меня основной поток клиентов идет из яндекса, до перевода на ЧПУ в сутки заходило 200-250 человек и поднималось, теперь 100-120. Как мне вырулить ситуацию с дублями, мой пост выше решит хоть немного проблему?
создал robots.txt вида
хуже не будет?
достаточно ли будет добавить в файл robots.txt строку
Disalow: /index.php*
чтобы избавиться от дублей
цитата мастера "Произвел глобальное обновление сайта. Пофиксил много мелочей. В связи с этим могут вылезти небольшие глюки, надо потестить.
1. Перевел сайт на ЧПУ. Теперь все адреса выглядят как
http://сервис-девайс.рф/remont/telefony/lenovo/
http://сервис-девайс.рф/remont/telefony/blackberry/8830/
Если человек переходит по старому адресу его перекидывает на новый, он даже не заметит. Все старые ссылки на сайте автоматически превращаются в новые, даже те которые были вставлены вручную в тексте.
Через какое-то время поисковики обновят индекс страниц, заметно улучшатся показатели в выдаче."
достучаться до него (админа) не могу, ftp открыт, файла robots.txt нет в корне, что нужно предпринять, чтобы исправить проблему дублей и канонических страниц
При переходе на старую ссылку попадаем на новый ЧПУ. Все норм было.