Дубли страниц, что оставить, а что закрыть?

Doroshev
На сайте с 21.01.2010
Offline
186
318

В общем дилемма достаточно серьезная!

Есть архив файлов с 5100 файлами (большая база мобильных приложений).

Каждый файл доступен по адресам:

/files/file6297.html

/files/6297_nazvanie_prilogeniya.html

/index.php?do=files&op=download&fileid=

Сейчас вот посмотрел в ЯВ какой же адрес выдает Яндекс в своей выдаче и оказалось, что страниц ПЕРВОГО вида в индексе 4091. ТРЕТЬЕГО вида в поиске 1150. ВТОРОГО вида я подсчитать не могу, т.к. оператор * не дает мне такой возможности. Но если исключить все прочие страницы, которые касаются архива файлов и вычесть от общей суммы, то выйдет НЕ БОЛЬШЕ 100 файлов.

У меня на сайте все файлы доступны по адресу ВТОРОГО типа. Но в настройках модуля можно выбрать, чтобы все файлы были доступны по адресу ПЕРВОГО типа.

В общем я думаю, что стоит в настройках файлового архива выбрать ЧПУ ПЕРВОГО типа и не париться. Но есть ряд ссылок, которые ведут на страницу с адресом ВТОРОГО типа (но это я думаю можно легко исправить).

P
На сайте с 14.06.2012
Offline
22
#1

Сделайте 301 редирект с одного вида ссылок на другой и в поиске со временем окажутся все одинаковые.

я как правило предпочитаю второй вид ссылок.

Надежные и быстрые VDS для сайта. Всего от 149 рублей. (http://goo.gl/pQcDi)
Doroshev
На сайте с 21.01.2010
Offline
186
#2

Нашел еще дубли одного вида, их оказалось 1150.

301 редирект сделать с адреса вида:

/files/file6297.html

на адрес вида:

/files/6297_nazvanie_prilogeniya.html

я так понял??? Как это реализовать, я ведь не могу отдельно для каждого файла прописать редирект, а выделить что-то общее в адресах ВТОРОГО типа я не могу, т.к. у них нет общих слов в адресе.

з.ы.ТРЕТИЙ тип адресов только что закрыл в роботсе!

---------- Добавлено 17.08.2012 в 12:26 ----------

А еще идея, если просто запретить в Роботсе адреса 1 и 3 типа и оставить 2 тип, просто старые адреса выпадут, а новые появятся?

Но если так сделать, то как серьезно упадет трафик в первые недели??!!

New Member
На сайте с 21.12.2008
Offline
211
#3
Doroshev:
Нашел еще дубли одного вида, их оказалось 1150.
301 редирект сделать с адреса вида:
/files/file6297.html
на адрес вида:
/files/6297_nazvanie_prilogeniya.html

я так понял??? Как это реализовать, я ведь не могу отдельно для каждого файла прописать редирект, а выделить что-то общее в адресах ВТОРОГО типа я не могу, т.к. у них нет общих слов в адресе.

з.ы.ТРЕТИЙ тип адресов только что закрыл в роботсе!

---------- Добавлено 17.08.2012 в 12:26 ----------

А еще идея, если просто запретить в Роботсе адреса 1 и 3 типа и оставить 2 тип, просто старые адреса выпадут, а новые появятся?
Но если так сделать, то как серьезно упадет трафик в первые недели??!!

Я больше чем уверен, что robots.txt многим вам уже не поможет. Гугл вообще часто на него плюет.

Помогает больше это 404 ошибка, редирект или мета-тег роботс.

Раскрутка сайтов (https://seomasters.com.ua/)
Doroshev
На сайте с 21.01.2010
Offline
186
#4

В общем я закрыл в роботсе страницы вида:

/files/file6297.html

/index.php?do=files&op=download&fileid=

Оставил:

/files/6297_nazvanie_prilogeniya.html

Сделал карту сайта файлового архива и отправил в Яшу и Гугл. Теперь буду просто ждать, пока ПС переиндексируют новые УРЛы, а старые выплюнут.

Не думаю, что трафик упадет, т.к. у меня практически не было заходов на файлы. Надеюсь после переиндексации они появятся :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий