Двойная ссылка на страницу

12
M
На сайте с 24.06.2010
Offline
27
1636

Здравствуйте,

Недавно заметил что и Яндекс, и Гугл в результатах поиска показывает одну и ту же страницу но с разными линками для одного сайта. Как пример:

страница под названием Article

1. www.site.com/article.html

2. www.site.com/content/view/53

Сайт сделан на Joomla. Поисковая оптимизация вкючена. Вопрос: подозреваю, что не хорошо для поисковиков разные линки с одинаковым контентом (контент наверно считается не уникальным), но с другой стороны - проиндексировано намного больше страниц сайта. В том случае, если оставить линки только www.site.com/article.html то к-во намного уменьшится.

Нужно ли решать даную проблему?

Если да, каким способом? Переделать /content/view/x чтобы отображалось 404 эррор? Сделать 301 редирект с каждой /content/view/x на правильную страницу? может каким-то образом запретить в робот.txt индексирование /content (если это возможно конечно)? Может еще что посоветуете?

Спасибо

Dwarfik
На сайте с 11.10.2008
Offline
152
#1

Да, в джумле хватает проблем с дублями.

Дубли надо убирать. Лучше всего склеить 301 редиректом, ПС сами разберутся.

Буквально на днях читал серию материалов по борьбе с дублями. К сожалению, ссылку не сохранил.

Вроде был сайт webmastermaksim.ru и так в глубине. Вообще через гугл можно найти много разных вариантов решения проблемы.

6 тип эннеаграммы
M
На сайте с 24.06.2010
Offline
27
#2

Спасибо, поискал линк - http://webmastermaksim.ru/joomla/joomla-dubli-stranic-skleivaem-v-fajle-htaccess.html

Этот возможно?

Dwarfik
На сайте с 11.10.2008
Offline
152
#3

И это в том числе. Там перечислено несколько обычных проблем, связанных с дублями. Рекомендую о них также почитать.

flame666
На сайте с 15.06.2010
Offline
118
#4

А почему просто нельзя закрыть от индексации страницы в robots.txt? Например так:

Disallow: /component/

Disallow: /search/

Мир не Disney - помогай за respect (с)
Dwarfik
На сайте с 11.10.2008
Offline
152
#5
flame666:
А почему просто нельзя закрыть от индексации страницы в robots.txt? Например так:
Disallow: /component/
Disallow: /search/

Как ни странно, есть причины.

Самая банальная: модуль вывода свежих новостей на главной с кривыми урлами. А в меню есть раздел новости, где внутри список новостей с нормальными урлами. Но с главной индексация происходит быстрее. Поэтому просто закрыть неразумно, нужен редирект.

Для небольших проблему решит компонент ЧПУ: sef404, Artio SEF и т.п. Но они повышают нагрузку на сервер, что иногда критично.

flame666
На сайте с 15.06.2010
Offline
118
#6

Хм, встроенный ЧПУ джумлы 2.5 вполне решает эту проблему(и повышает нагрузку на сервер - не значительно). Свежие и похожие новости отображаются с нормальными урлами. Я просто закрыл "component" и "search". Хотя может в 1.5 такая проблема существует. :)

Dwarfik
На сайте с 11.10.2008
Offline
152
#7
flame666:
Хм, встроенный ЧПУ джумлы 2.5 вполне решает эту проблему(и повышает нагрузку на сервер - не значительно). Свежие и похожие новости отображаются с нормальными урлами. Я просто закрыл "component" и "search". Хотя может в 1.5 такая проблема и имеет место быть. :)

В роботсе закрывать надо, это не вопрос. Главное, чтобы редирект работал. А если работает редирект, то и роботс нужен скорее для страховки.

flame666
На сайте с 15.06.2010
Offline
118
#8
Dwarfik:
В роботсе закрывать надо, это не вопрос. Главное, чтобы редирект работал. А если работает редирект, то и роботс нужен скорее для страховки.

А если например, 2 дубля статьи уже проиндексированы. Поможет ли закрытие одной из статей в роботсе? Или всё таки нужно и закрывать и ставить с той - что не нужна - редирект?

M
На сайте с 24.06.2010
Offline
27
#9
Dwarfik:
В роботсе закрывать надо, это не вопрос. Главное, чтобы редирект работал. А если работает редирект, то и роботс нужен скорее для страховки.

Согласен на 200%, но с этими редиректами возни много, не знаю или возможно одним правилом перекидывать с /content/view/XXX на /seofriendlylink.html

Попробую закрыть в роботс и поставить 404 эррор на все /content/view/

Все дублирующие линки попробую убрать с гугля

master_jeday
На сайте с 15.05.2010
Offline
231
#10
flame666:
А если например, 2 дубля статьи уже проиндексированы. Поможет ли закрытие одной из статей в роботсе? Или всё таки нужно и закрывать и ставить с той - что не нужна - редирект?

Лучше поставить и редирект, и закрыть ненужную страницу в роботсе. Если закрыть в роботсе и редирект не ставить, придется ждать довольно долго, пока страница, закрытая в роботсе, вылетит. Гугл может вообще забить на роботс.

Дорвеи на заказ с гарантией трафика ( /ru/forum/993918 ) >>> Осторожно, в телеге/скайпе есть клоны! Проверяйте, что общаетесь именно со мной через личку!
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий