Дубли страниц

7P
На сайте с 23.04.2010
Offline
78
719

Здравствуйте.

Ситуация следующая: на сайте поменялся дизайн, из-за чего появились дубли страниц с описанием товаров. Короче говоря, одна и та же страница с описанием товара доступна по 2-м разным адресам. Убрать генератор дублей (очень-очень красивая фотогаллерея) технической возможности нет. Запрещать каждую страницу в роботсе - тоже не вариант (товаров не мало, и они меняются... каждый раз править роботс не хочется).

Ссылки на эти дубли идут только с галлереи, которая доступна только на главной странице. На нормальные страницы товаров ссылок гораздо больше. Я к чему веду: по идее вес нужных страниц гораздо выше, чем вес дублей. Склеит ли их Яндекс (Гугл), или будут висеть в поиске и все мне портить? У кого-то был подобный опыт? Или как помочь ему их склеить...

Turon
На сайте с 11.09.2011
Offline
53
#1

Склеит не склеит, а под агс потянуть сайт сможет! Единовременное увеличение контента сайта ( страниц сайта ) В 2 раза - дубли. Чревато последствиями. Если склеит, хорошо, но дубли это зло - лучше от них избавиться! ИМХО!

andreydrag
На сайте с 26.09.2008
Offline
103
#2
Turon:
Склеит не склеит, а под агс потянуть сайт сможет! Единовременное увеличение контента сайта ( страниц сайта ) В 2 раза - дубли. Чревато последствиями. Если склеит, хорошо, но дубли это зло - лучше от них избавиться! ИМХО!

+1. Согласен на все 100%. Ищите вариант закрытия в роботсе.

mark3000
На сайте с 29.08.2009
Offline
115
#3

А директивой "Clean-param" получится "склеить" ? Дубли все таки не есть хорошо.

LINKOSCOP 4.2 (http://www.interascope.biz/linkoscop-4/) это 100+ функций для работы с внутренней перелинковкой
NP
На сайте с 29.06.2011
Offline
4
#4

можно в роботсе закрыть по маске

7P
На сайте с 23.04.2010
Offline
78
#5

Спасибо.

А еще такой вопрос: размер файла роботса как-нибудь влияет на продвижение? Уж очень он большой получается, ни у кого таких не видел - под сотню строк.

Решил все-таки потратить часик и позакрывать вручную... Disallow понимают все, а вот остальные директивы у Яндекса одни, у Гугла другие.

mark3000
На сайте с 29.08.2009
Offline
115
#6

У Яндекса есть ограничение на вес файла robots.txt. По моему 10Кб. Если больше, то все засчитывается как "Allow" если не ошибаюсь... надо посмотреть, у них написано в руководстве.

wwwwww
На сайте с 29.04.2011
Offline
195
#7
7aPu6aJIbDu:
на сайте поменялся дизайн, из-за чего появились дубли страниц

Уже интересно - "новый дизайн = дубли".

7aPu6aJIbDu:
Ссылки на эти дубли идут только с галлереи, которая доступна только на главной странице.

Как вариант "nofollow" для каждой ссылки.

7aPu6aJIbDu:
Или как помочь ему их склеить...

На страницах-дублях использовать "canonical".

7aPu6aJIbDu:
А еще такой вопрос: размер файла роботса как-нибудь влияет на продвижение? Уж очень он большой получается, ни у кого таких не видел - под сотню строк.

Используйте маску.

Видишь? Свободная подпись.
NP
На сайте с 29.06.2011
Offline
4
#8

Слишком большие robots.txt (более 32 Кб) считаются полностью разрешающими, то есть рассматриваются аналогично:

User-agent: Yandex

Disallow:

7P
На сайте с 23.04.2010
Offline
78
#9
Как вариант "nofollow" для каждой ссылки.

Какой-нибудь добрый человек может не побрезговать и в аддурилку ввести.

Ну вроде вложился в 5 кб:)

Всем сапсибо.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий