Как решить проблему таких дублей? (/, /ru, /rus)

G
На сайте с 24.01.2012
Offline
16
517

Добрый день уважаемы форумчане,

у нас есть такая проблема. Несколько месяцев назад поменяли движок сайта, и сейчас, в системе, у всех аабсолютно страниц автоматом идут три дубля.

Тоесть выглядит так: есть страница www.site.com.ua/ru/page/page1. Так должно быть. А на самом деле, есть так:

www.site.com.ua/ru/page/page1

www.site.com.ua/rus/page/page1

www.site.com.ua/page/page1

Я не знаю почему, но система сгенерировала по три адреса. Это произошло еще в сентября. Гугл проиндексировал, сейчас в индексе страницы в разброс - где с ru/, где с rus/, где просто /...

Естественно, в вэмастере гугл обнаружил много страниц с одинаковыми мета и тычит на них.

Ну убрать генерацию новых страниц с тремя адресами - это не проблема (и то, как то непонятно с этим).

А как лучше почистить существующую ситуацию? В приоритете - www.site.com.ua/ru/page/page1. Мы можем все страницы, которые проиндексированы с www.site.com.ua/rus/page/page1 или www.site.com.ua/page/page1 поставить 301 на соответствующий www.site.com.ua/ru/page/page1

Но у нас и так есть редиректы на эти страницы с прошлого сайта с другой структурой)) тоесть получиться 301 на 301.

Или их просто закрыть от индексации? В силу своей не компетентности не могу разобраться с программистом) Надеюсь, написал понятно, и забаньте, если написл глупость)

G0
На сайте с 10.08.2013
Offline
12
#1

Почините движок чтобы не плодил дублии и закройте дубли от индексации

G
На сайте с 24.01.2012
Offline
16
#2

Да, спасибо за помощь, уже вроде решили и нашли корень проблемы) может, кстати, кому-то поможет избежать такой глупости, как у меня вышло)

Дело в том, что когда решили ставить новый движок, естественно, решили менять структуру сайта. Были основные страницы входа. Ну, например, www.site.com.ua/vajnayapage и еще несколько таких же страниц, продвигаемых и вообще, важных

Значит еще в то время, был старый движок и каким-то образом получилась путаница - есть страницы с просто типом адреса /page/ а есть с ru/page. Это произошло, когда сайт сделали двуязычным, вот тогда и получилось - что-то с /ru/ что-то без. (тога еще нужно было все без /ru/ кидать на /ru/)

Так вот, повесили мы новый движок и решили на большинство страниц просто поставить 301 редирект на новые адреса. А часть страниц мы оставили со старыми адресами. Все новые адреса у нас на /ru/, а некоторые мы оставили со старыми адресами, без /ru/. И получилось - человек заходит на www.site.com.ua/vajnayapage, в то время когда большинство страниц - типа www.site.com.ua/ru/page. Так вот, когда человек попадает на сайт через www.site.com.ua/vajnayapage и дальше кликает - все страницы уже идут как www.site.com.ua/page, а не как должно бы было быть - www.site.com.ua/ru/page

В итоге, получился у нас дубль с /ru/ и без /ru/, а еще каким-то боком вылезла версия с /rus/. И вышла идиотская ситуация. А проблема началась тогда, когда мы решили не все страницы переадресовывать на новую страницу, а именно в системе, где все с /ru/, мы оставили страницы с адресом без /ru/

Прошу прощения, за множество ненужной и непонятной писанины))

Так сейчас мы решили поставить повальную переадресацию всего, что начинается без /ru/ (все, что не www.site.com.ua/ru/page) на такой же аналог с /ru/.

А через время, когда склеится, закроем все что не с /ru/ от греха подальше от индексации. Сейчас, если закроем от индексации - просто вылетят страницы с индекса)

Еще раз спасибо за внимание, и спасибо Gug007 за коммент)

V
На сайте с 01.04.2013
Offline
5
#3

выходят какие-то костыли сплошные...

ужас просто, какой движок? если самопис, то оторвите руки тем кто занимался разработкой.

FC
На сайте с 17.08.2012
Offline
99
#4

1. починить движок

2. rel="canonical" на всех страницах, чтоб исключить дубли текстов по сайту. Роботы сами выберут наиболее релевантную страницу

недостаток добра делает человека злым.
edvago63
На сайте с 29.07.2012
Offline
65
#5

Все дубли убираются на ура - закрытием в роботс, ждете пару дней пока гугл загрузит новый роботс, удаляете дубли в гуглвебмастере удалением урл. Была похожая ситуация, долго мучился на джумле. С главной было несколько дублей http://site/ru, http://site.ru/?start=5, http://site://site.ru/?lang=ru&start=5. В роботс добавил две строчки Disallow: *?lang=ru&start=, Disallow: *?start= Проверить можно сразу в форме в гуглвебмастер в меню сканирование-заблокированные урл.

G
На сайте с 24.01.2012
Offline
16
#6

Спасибо всем за советы - дельные:) Вопрос решили

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий