избавление от дублей в индексе

12
A
На сайте с 11.03.2009
Offline
58
1059

Здравствуйте!

Имеется сайт на джумле, cms наделала дублей, они в индексе и сбивают яшу с толку, он выдает не те страницы в выдаче

как убрать дубли из индекса- яндекс сам говорит:

Если страница сайта больше не существует или вы не хотите, чтобы она появлялась в результатах поиска, то вы можете ускорить процесс удаления этой страницы из базы Яндекса, указав ее URL в приведенной форме. Для удаления необходимо, чтобы при запросе указанного URL сервер возвращал код ошибки 404 или индексирование страницы было запрещено в файле robots.txt

кажется, что 404 ошибка лучше, чем прописывать в роботс множество страниц,

вопрос: как это сделать? через Штаксесс? Как, прошу подсказать, с штаксессом дела не имел. или есть еще способы?

ollubim
На сайте с 27.02.2008
Offline
145
#1

Насколько я знаю, можно удалить только те страницы, которые закрыты robots.txt или больше не существуют. Пока страница "жива" и открыта поисковикам, удалить ее через вебмастер не получится.

Для удаления необходимо, чтобы при запросе указанного URL сервер возвращал код ошибки 404 или индексирование страницы было запрещено в файле robots.txt
A
На сайте с 11.03.2009
Offline
58
#2
ollubim:
Насколько я знаю, можно удалить только те страницы, которые закрыты robots.txt или больше не существуют. Пока страница "жива" и открыта поисковикам, удалить ее через вебмастер не получится.

совершенно верно. я поместил страницу в роботс и попросил яндекса убрать ее, яндекс сказал, что уберет,

тот же номер, с незакрытой в роботсе страницей не прошел

вопрос в том, как сделать, чтобы

при запросе указанного URL сервер возвращал код ошибки 404

не писать же в роботся сотни страниц

да и это тоже будет нагружать бота, что не нужно

sear4er
На сайте с 04.03.2010
Offline
756
#3

Закрой в роботсе все кривые сслыки, сами вылетят со временем ...

Профессиональный SEO аудит с гарантией результата (форум). ( /ru/forum/824674 ) EVOLUTION SEO - Оптимизация, продвижение сайтов, вывод из под фильтров (личный сайт). ( https://evoseo.ru ) Бесплатные SEO консультации. ( https://evoseo.ru/seo-consultaciya/ )
A
На сайте с 11.03.2009
Offline
58
#4

яндекс видит 2800 страниц, в поиске 1160, реально статей- около 300

сколько же вбивать в роботс?

и потом, страницы, закрытые в роботсе, паук все равно обходит, просто ему запрещено вносить в индекс. вот и получается- он ходит по дублям, а на новые страницы его не хватает

я думал, что через 404 в штаксесс легче и лучше

siv1987
На сайте с 02.04.2009
Offline
427
#5
то через 404 в штаксесс легче и лучше

Не легче и не лучше, это не правильно.

В robots просто закройте дубли по маске и все.

A
На сайте с 11.03.2009
Offline
58
#6
siv1987:
Не легче и не лучше, это не правильно.
В robots просто закройте дубли по маске и все.

поясните, пожалуйста, как это- по маске?

siv1987
На сайте с 02.04.2009
Offline
427
#7

/ru/forum/493216

Чтоб закрыть дубль, запрещаем параметр &highlight:

Disallow: /*highlight=

A
На сайте с 11.03.2009
Offline
58
#8

так,так,так...

что значит highlight?

и что ставим после знака "="?

siv1987
На сайте с 02.04.2009
Offline
427
#9
так,так,так...
что значит highlight?
и что ставим после знака "="?

Это пример дубля страницы форума на вбулетине. Смотрите какие урлы с дублями генерирует ваш сайт и закройте их по этому принципу.

После знака "=" нечего не ставит т.к. по умолчанию подразумевается "=*".

A
На сайте с 11.03.2009
Offline
58
#10

вроде понял,спасибо

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий