индексация страниц сайта на джумле (для сапы)

J
На сайте с 18.06.2007
Offline
158
447

ситуация такая: на сайте 1500 страниц, в индексе - 900, робот сапы находит 650, но после проверки на индексацию остается только 12 проиндексированных... видимо виноваты дубли (у одной и той же страницы 2 разных урла, та страница, на которую есть ссылка с главной непроиндексирована)

Подскажите plz, что делать в такой ситуации? (как удалить дубли, поможет ли установка компонента ЧПУ, и какую карту сайта лучше использовать?)

W
На сайте с 16.10.2008
Offline
142
#1
Junost:
ситуация такая: на сайте 1500 страниц, в индексе - 900, робот сапы находит 650, но после проверки на индексацию остается только 12 проиндексированных... видимо виноваты дубли (у одной и той же страницы 2 разных урла, та страница, на которую есть ссылка с главной непроиндексирована)

Подскажите plz, что делать в такой ситуации? (как удалить дубли, поможет ли установка компонента ЧПУ, и какую карту сайта лучше использовать?)

Дубли страниц - это плохо. Каждая страница сайта должны быть доступна только по одному url-адресу!

ЧПУ - это хорошо, реализуйте данный вид урлов. Карту сайта можно сделать и xml и html форматов.

Удаляйте все дубликаты страниц, со временем роботы проиндексируют новый формат Вашего сайта.

Миледи: интернет-магазин украшений с природными камнями (https://milady-24.ru/)
J
На сайте с 18.06.2007
Offline
158
#2

ясно, спс... а не подскажите, как выявить и удалить дубли?)

Б
На сайте с 30.06.2008
Offline
200
#3

Junost, если Вы разбираетесь в структуре своего сайта, то проблем с выявлением быть не должно. :) Оставляйте страницу с ЧПУ, остальные закрывайте в robots.txt. Карту сайта генерируйте в xml, добавляйте её в robots.txt. Я ещё настоятельно рекомендую скармливать её Гуглу и Яше вручную в панелях.

Будь мудрее. Выгляди глупее.
MA
На сайте с 06.05.2006
Offline
159
#4

Установите компонент ЧПУ, например OpenSEF, он уберет все дубли под нормальные урлы.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий