Dzed

Рейтинг
37
Регистрация
14.12.2013
KGB:
У Вас там 302 редирект, который яндекс обрабатывает через ж.... Нужен 301

Не могу понять как его реализовать, что вообще генерирует новые ссылки? .htcaccess вроде не причем (почитал, обычно его используют, чтобы получить ЧПУ и с помощью его же и устанавливают 301 редиректы, но на каждую страницу, а их около 10000).

подскажите, выкидывать такой роботс в корень сайта? Хуже не будет?

Мемори:
Dzed примерно год назад я ставил несколько экспериментов, вывод - гугл дает больше трафика на не ЧПУ... не знаю почему, могу только предположить что ЧПУ является одним из признаков СЕО а гугл хочет чтобы все было натурально... (то есть в какой-то степени ЧПУ не натурально, может быть по статистике гугла СДЛ в большем проценте работают без ЧПУ...) не настаиваю на правоте... но эксперимент был на 10 тыс. стр. проведен.

у меня изначально яндекс индексировал 3000 страниц, в то время как гугл индесировал 12000-13000 страниц, сейчас в яндексе 2000, в гугле 10500. Но у меня основной поток клиентов идет из яндекса, до перевода на ЧПУ в сутки заходило 200-250 человек и поднималось, теперь 100-120. Как мне вырулить ситуацию с дублями, мой пост выше решит хоть немного проблему?

создал robots.txt вида

User-agent: Yandex
Disallow: /index.php*
Disallow: /glavnaja/korzina-zakazov/
Host: xn----8sbebjddvo6djeg.xn--p1ai

хуже не будет?

достаточно ли будет добавить в файл robots.txt строку

Disalow: /index.php*

чтобы избавиться от дублей

Optismile:
Dzed, у вас проблема дублей!!! где файл robots.txt ? canonical тоже не вижу.

цитата мастера "Произвел глобальное обновление сайта. Пофиксил много мелочей. В связи с этим могут вылезти небольшие глюки, надо потестить.

1. Перевел сайт на ЧПУ. Теперь все адреса выглядят как

http://сервис-девайс.рф/remont/telefony/lenovo/

http://сервис-девайс.рф/remont/telefony/blackberry/8830/

Если человек переходит по старому адресу его перекидывает на новый, он даже не заметит. Все старые ссылки на сайте автоматически превращаются в новые, даже те которые были вставлены вручную в тексте.

Через какое-то время поисковики обновят индекс страниц, заметно улучшатся показатели в выдаче."

достучаться до него (админа) не могу, ftp открыт, файла robots.txt нет в корне, что нужно предпринять, чтобы исправить проблему дублей и канонических страниц

outtime:
Редирект со старых URL на новые у вас был настроен?
С этим бы проседания почти не было, я полагаю.
А вообще, правильно говорят: работает - не трогай.

При переходе на старую ссылку попадаем на новый ЧПУ. Все норм было.

12
Всего: 16