Дублирование страниц Джумлы в Яндексе

12
DG
На сайте с 25.10.2008
Offline
95
1198

Есть сайт-каталог на джумле+виртумарт. Я активно занимаюсь продвижением нескольких внутренних страниц по ключевикам-брендам продукции. Все было отлично, топ-10, все дела, но тут несколько сотен страниц, включая продвигаемые выпадают из индекса вообще.

Написал платону - тот сказал, что на сайте присутвуют страницы, дублирующие продвигаемые; привел пару примеров (могу в личку кинуть) и сказал - грубо говоря - как закроешь в роботсе или еще как - пиши.

Проблема в том, что дублированные страницы даже не представляю, как найти - в индексе у Яши (раньше было 1200 страниц, потом, судя по всему АГС повлиял - 400, сейчас около 300) нашел только одну (хотя по моим расчетам страниц-дублей должно быть не менее 8-10).

В карте сайта - порядка 1200 ссылок. Неужели мне придется искать в ней руками дубли и руками же запрещать их к индексации в роботсе?

Заранее благодарен за содействие:)

Kide
На сайте с 29.03.2007
Offline
69
#1
denisov_gp:
Есть сайт-каталог на джумле+виртумарт

Может, просто, подправить виртумарт?

Hasta La Victoria Siempre!
Антон Лавеев
На сайте с 31.10.2005
Offline
425
#2
denisov_gp:
руками же запрещать их к индексации в роботсе?

Там по шаблону можно ,почитайте рекомендации и описание роботса от яндекса, там все написано.

☠️☠️☠️
mephy
На сайте с 27.11.2008
Offline
108
#3

дубли нужно искать не в индексе яши, а у вас на сайте, что чаще всего может быть дублями? Это тэги, категории, страницы, архивы и т.д.. Для Яши в идеале - Главная страница и статические страницы со статьями. Все остальное можно закрывать в роботсе.

"Деревня удаленщиков на Бали. Возможность ПМЖ на Бали" (http://rd2dom.ru/)
Антон Лавеев
На сайте с 31.10.2005
Offline
425
#4
mephy:
дубли нужно искать не в индексе яши, а у вас на сайте

Ржака. Яндексу плевать на твои дубли до той поры, пока он их не проиндексировал, этот какбэ ясно как белый день. Так что смотреть нужно именно на проиндексированные страницы. Более того, если ты не совсем понимаешь что генерирует цмска и не в состоянии сразу создать правильные дерективы в роботсе, просмотр индекса поможет тебе найти узкие места и заранее предотвратить индексацию тысяч страниц для печати, например. Ну и т.д.

mephy
На сайте с 27.11.2008
Offline
108
#5
Tarry:
Ржака. Яндексу плевать на твои дубли до той поры, пока он их не проиндексировал, этот какбэ ясно как белый день. Так что смотреть нужно именно на проиндексированные страницы. Более того, если ты не совсем понимаешь что генерирует цмска и не в состоянии сразу создать правильные дерективы в роботсе, просмотр индекса поможет тебе найти узкие места и заранее предотвратить индексацию тысяч страниц для печати, например. Ну и т.д.

зачем ручками искать дубли в индексе яши, если можно логически подумать, что создаёт дубли и запретить их к индексации.

Антон Лавеев
На сайте с 31.10.2005
Offline
425
#6
mephy:
зачем ручками искать дубли в индексе яши

Я там выше вроде написал зачем и почему.

mephy
На сайте с 27.11.2008
Offline
108
#7

Tarry, это был риторический вопрос.

rstby
На сайте с 05.02.2009
Offline
51
#8

......

Disallow: /*.php$

Disallow: /content/$

Disallow: /index2.php$

Disallow: /index.php$

Disallow: /*itemid*

Disallow: /*view*

Disallow: /*task*

Disallow: /*id*

Disallow: /*option=*

Disallow: /*component*

Disallow: /*letter*

Disallow: /*threaded*

Disallow: /*replyto*

Disallow: /*catid*

Disallow: /*func=*

Disallow: /*bot.html$

Disallow: /*AdsManagerTab*

.....

Кое что закрывает, но Вам нужно на форум Joomla, там данный вопрос давно раскрыт

Компьютерный портал (http://tehnik.by/) Ремонт компьютера (http://www.rst.by/)
DG
На сайте с 25.10.2008
Offline
95
#9
rstby:
......
Disallow: /*.php$
Disallow: /content/$
Disallow: /index2.php$
Disallow: /index.php$
Disallow: /*itemid*
Disallow: /*view*
Disallow: /*task*
Disallow: /*id*
Disallow: /*option=*
Disallow: /*component*
Disallow: /*letter*
Disallow: /*threaded*
Disallow: /*replyto*
Disallow: /*catid*
Disallow: /*func=*
Disallow: /*bot.html$
Disallow: /*AdsManagerTab*
.....
Кое что закрывает, но Вам нужно на форум Joomla, там данный вопрос давно раскрыт

Родилась идея закрыть все страницы от индексации, кроме продвигаемых. Подглядел тут.

Получилось такое:

User-agent: *

Allow: /index.php?option=com_content&task=view&id=1&Itemid=1

Allow: /index.php?option=com_content&task=view&id=5&Itemid=4

Allow: /index.php?option=com_content&task=view&id=3&Itemid=2

Allow: /index.php?option=com_content&task=view&id=4&Itemid=3

Allow: /index.php?option=com_content&task=view&id=9&Itemid=20

Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=1&Itemid=19

Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=9&Itemid=19

Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=11&Itemid=19

Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=12&Itemid=19

Allow: /index.php?option=com_virtuemart&page=shop.browse&category_id=7&Itemid=19

Disallow: /administrator/

Disallow: /cache/

Disallow: /components/

Disallow: /includes/

Disallow: /installation/

Disallow: /language/

Disallow: /libraries/

Disallow: /modules/

Disallow: /plugins/

Disallow: /templates/

Disallow: /tmp/

Disallow: /xmlrpc/

Disallow: /catalogue

Disallow: /*option=

Disallow: /*page=

Host: www.site.ru

Правильно ли я понял, что в индексе останутся только 10 страниц сайта и проблема с дублем будет исчерпана? И правильно ли составлен этот robots.txt?

mephy
На сайте с 27.11.2008
Offline
108
#10

denisov_gp, этот вопрос на форум жумлы, но вы можете проверить этот роботс в ЯндексВебм.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий