Борьба с дублями, прошу совета

bandesign
На сайте с 10.02.2010
Offline
94
760

Всем привет.

При написания сайта, не учли момент возникновения дублей страниц с одинаковым наполнением.

Вот конкретный пример:

http://www.bandesign.ru/portfolio.php?work=210&s=2&ss=2

http://www.bandesign.ru/portfolio.php?s=2&ss=2&work=210

http://www.bandesign.ru/portfolio.php?work=210&s=2

http://www.bandesign.ru/portfolio.php?s=2&work=210

Это всё одна и та же работа в портфолио, но вызывается из разных мест, с чуть видоизмененным урлом.

Схема такая:

-------------------- Все работы раздела / Итоговая страница

------------------- /

Портфолио / Раздел

------------------- \

-------------------- Работы конкретного подраздела / Итоговая страница

То есть итоговая страница может вызываться из 2х разных мест, но уже с построением другого урла. Так как навигация на страницах разная, в зависимости из какого раздела она запущена. Итого имеем под 200 таких дублей, это скорее всего отрицательно влияет на выдачу.

Подскажите как лучше решить проблему таких дублей? Закрывать какой-то конкретный подраздел от индексирования? Если да, то как?

Дизайн и изготовление рекламы (https://bandesign.ru)
Glowfish
На сайте с 26.01.2009
Offline
73
#1

Выберите основную, остальные закройте от индексации, или используйте rel="canonical".

IS
На сайте с 23.10.2013
Offline
35
#2

1 - определитесь какой из урлов является основным

2 - пропишите для основного урла rel="canonical"

3 - закройте от индексации в роботсе не раздел, а страницы содержащие определённую последовательность, например

portfolio.php?work=210&s=2 - основной урл

тогда в robots.txt вы закрываете в

Disallow: *.php?s=

Disallow: *&ss=

Пример только для ориентира.

bandesign
На сайте с 10.02.2010
Offline
94
#3
Glowfish:
Выберите основную, остальные закройте от индексации, или используйте rel="canonical".

Допустим я выбрал для себя основной раздел. Как закрыть остальные?

С учетом того, что урлы строятся таким образом как у нас. Подробнее если можно.

По поводу rel="canonical", если не сложно тоже опишите на данном примере.

---------- Добавлено 03.09.2015 в 10:42 ----------

IvanShishkin:
тогда в robots.txt вы закрываете в
Disallow: *.php?s=
Disallow: *&ss=

Я где-то недавно вычитал, что если страницы проиндексированы, то в роботс их уже закрывать поздно, так ли это?

Glowfish
На сайте с 26.01.2009
Offline
73
#4
bandesign:
Допустим я выбрал для себя основной раздел. Как закрыть остальные?
С учетом того, что урлы строятся таким образом как у нас. Подробнее если можно.

По поводу rel="canonical", если не сложно тоже опишите на данном примере.

Как закрыть через роботс вам выше написали.

По поводу канонических урлов, выбираете основную страницу, к примеру, эту: http://www.bandesign.ru/portfolio.php?work=210&s=2

На остальных прописываете мета тег следующего вида: <link rel="canonical" href="http://www.bandesign.ru/portfolio.php?work=210&s=2"> в пределах тега <head>

bandesign
На сайте с 10.02.2010
Offline
94
#5
Glowfish:
На остальных прописываете мета тег следующего вида: <link rel="canonical" href="http://www.bandesign.ru/portfolio.php?work=210&s=2"> в пределах тега <head>

Спасибо, подумаем как всё это реализовать

---------- Добавлено 03.09.2015 в 12:35 ----------

Кстати, сильно ли бьёт по позициям Гугла и Яндекс такая ситуация как у нас?

donc
На сайте с 16.01.2007
Offline
686
#6
bandesign:
Кстати, сильно ли бьёт по позициям Гугла и Яндекс такая ситуация как у нас?

В общем и целом - не сильно, но возникает серьезная опасность смены посадочной страницы - а вот тогда уже будет сильно.

Если вы вообще портфолио продвигаете.

Но скорее всего - нет, так что каноникал хватит.

Все прочие изыски с роботс.тхт, мета роботс ноиндекс, 301 редерикт в вашем случае - излишни

Продвижение сайтов от 25 000 в мес, прозрачно, надежно https://searchengines.guru/ru/forum/818412 , но не быстро, отзывы

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий