Просел трафик после перехода на ЧПУ

12
D
На сайте с 14.12.2013
Offline
37
1117

Доброго времени. Месяца 4 назад веб-мастер переделал отображение страниц с вида "http://сервис-девайс.рф/index.php?main=ebooks&id=100315&name=624" на вид "http://сервис-девайс.рф/remont/jelektronnye-knigi/pocketbook/624/", предупредил что трафик на время уменьшится, и действительно уменьшился (на 4 мес уже), но вроде и не хочет подниматься. До того как переделали структуру трафик шел вверх на глазах. Что могло произойти? Много запросов улетели из топа яндекса и не возвращаются. И хотелось бы опытных посоветовать, какую самую необходимую внутреннюю оптимизацию сделать.

outtime
На сайте с 04.05.2008
Offline
197
#1

Редирект со старых URL на новые у вас был настроен?

С этим бы проседания почти не было, я полагаю.

А вообще, правильно говорят: работает - не трогай.

Предлагаю воспользоваться моими услугами корректора. Проверю и уберу все ошибки, поправлю грамматику и склонения, сделаю текст лучше и читабельнее. Высокая скорость работы, цена 20 р за 1000 символов.
D
На сайте с 14.12.2013
Offline
37
#2
outtime:
Редирект со старых URL на новые у вас был настроен?
С этим бы проседания почти не было, я полагаю.
А вообще, правильно говорят: работает - не трогай.

При переходе на старую ссылку попадаем на новый ЧПУ. Все норм было.

[Удален]
#3

ИМХО не мало важно оставить старые ссылки, пока ПС новые не склеит. Я так делал, трафик не проседал. А то, даже с редиректом, Вы создаете дубли страниц

Optismile
На сайте с 30.05.2015
Offline
57
#4

Dzed, у вас проблема дублей!!! где файл robots.txt ? canonical тоже не вижу.

D
На сайте с 14.12.2013
Offline
37
#5
Optismile:
Dzed, у вас проблема дублей!!! где файл robots.txt ? canonical тоже не вижу.

цитата мастера "Произвел глобальное обновление сайта. Пофиксил много мелочей. В связи с этим могут вылезти небольшие глюки, надо потестить.

1. Перевел сайт на ЧПУ. Теперь все адреса выглядят как

http://сервис-девайс.рф/remont/telefony/lenovo/

http://сервис-девайс.рф/remont/telefony/blackberry/8830/

Если человек переходит по старому адресу его перекидывает на новый, он даже не заметит. Все старые ссылки на сайте автоматически превращаются в новые, даже те которые были вставлены вручную в тексте.

Через какое-то время поисковики обновят индекс страниц, заметно улучшатся показатели в выдаче."

достучаться до него (админа) не могу, ftp открыт, файла robots.txt нет в корне, что нужно предпринять, чтобы исправить проблему дублей и канонических страниц

Optismile
На сайте с 30.05.2015
Offline
57
#6
Dzed:
Если человек переходит по старому адресу его перекидывает на новый, он даже не заметит.

Это понятно, т.к. настроены 301 редиректы.

Но это не решает вашей проблемы. Вам нужно написать грамотный robots.txt. для начала.

D
На сайте с 14.12.2013
Offline
37
#7

достаточно ли будет добавить в файл robots.txt строку

Disalow: /index.php*

чтобы избавиться от дублей

Мемори
На сайте с 11.11.2012
Offline
105
#8

Dzed примерно год назад я ставил несколько экспериментов, вывод - гугл дает больше трафика на не ЧПУ... не знаю почему, могу только предположить что ЧПУ является одним из признаков СЕО а гугл хочет чтобы все было натурально... (то есть в какой-то степени ЧПУ не натурально, может быть по статистике гугла СДЛ в большем проценте работают без ЧПУ...) не настаиваю на правоте... но эксперимент был на 10 тыс. стр. проведен.

D
На сайте с 14.12.2013
Offline
37
#9
Мемори:
Dzed примерно год назад я ставил несколько экспериментов, вывод - гугл дает больше трафика на не ЧПУ... не знаю почему, могу только предположить что ЧПУ является одним из признаков СЕО а гугл хочет чтобы все было натурально... (то есть в какой-то степени ЧПУ не натурально, может быть по статистике гугла СДЛ в большем проценте работают без ЧПУ...) не настаиваю на правоте... но эксперимент был на 10 тыс. стр. проведен.

у меня изначально яндекс индексировал 3000 страниц, в то время как гугл индесировал 12000-13000 страниц, сейчас в яндексе 2000, в гугле 10500. Но у меня основной поток клиентов идет из яндекса, до перевода на ЧПУ в сутки заходило 200-250 человек и поднималось, теперь 100-120. Как мне вырулить ситуацию с дублями, мой пост выше решит хоть немного проблему?

создал robots.txt вида

User-agent: Yandex
Disallow: /index.php*
Disallow: /glavnaja/korzina-zakazov/
Host: xn----8sbebjddvo6djeg.xn--p1ai

хуже не будет?

D
На сайте с 14.12.2013
Offline
37
#10

подскажите, выкидывать такой роботс в корень сайта? Хуже не будет?

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий