Баг CMS вызвал проблемы с Яндексом

12 3
S
На сайте с 26.04.2006
Offline
86
1780

Из-за бага в CMS, которая использовалась для создания сайта, внутренние ссылки выводились не верно, в результате чего каждая страницы была доступно по нескольким адресам.

Допустим новость dome.ru/news_254/1/, была так же доступна по адресу

dome.ru/news_254/4/

dome.ru/news_254/5/

dome.ru/news_254/6/

Что вызвало появление дублей. В итоге Яндекс проиндексировал сайт как попало.

Я убрал с сайта ссылки на дубли страниц, и теперь на сайте нет не верных ссылок, но если ввести в ручную в командную строку левый адрес, то страница открывается.

Как теперь сделать, так что бы Яндекс переиндексировал сайт с верными адресами страниц?

Какой метод лучше:

1) Запретить в robots.txt, не верные адреса страниц

2) Запретить в htacces, доступ к не верные адреса страниц

3) Яндекс сам выкинет из индекса страницы, на которые не ссылается ни одна внутренняя страница.

Яндекс перестраивает карту сайта? Как я упомянул, вывод левых ссылок я убрал, но дубли страниц до сих пор доступны, если ввести адрес в ручную, Поэтому возникает предположение, если Яндекс каждый раз строит карту сайта, то он сам должен выкинуть дублирующие страницы, потому что на них нет ссылок и съесть страницы по правильным адресам.

[Удален]
#1

robots.txt вы не сможете - синтаксис не позволяет

Для Гугл я бы редирект 301 поставил, и можно про баг и не думать. Для яндекса тоже наверно должно сработать, но яндекс я пока плохо знаю - не уверен

Slam
На сайте с 08.12.2005
Offline
70
#2
Strom:
Из-за бага в CMS, которая использовалась для создания сайта, внутренние ссылки выводились не верно, в результате чего каждая страницы была доступно по нескольким адресам.
Допустим новость dome.ru/news_254/1/, была так же доступна по адресу
dome.ru/news_254/4/
dome.ru/news_254/5/
dome.ru/news_254/6/
Что вызвало появление дублей. В итоге Яндекс проиндексировал сайт как попало.
Я убрал с сайта ссылки на дубли страниц, и теперь на сайте нет не верных ссылок, но если ввести в ручную в командную строку левый адрес, то страница открывается.

Как теперь сделать, так что бы Яндекс переиндексировал сайт с верными адресами страниц?
Какой метод лучше:
1) Запретить в robots.txt, не верные адреса страниц
2) Запретить в htacces, доступ к не верные адреса страниц
3) Яндекс сам выкинет из индекса страницы, на которые не ссылается ни одна внутренняя страница.

Яндекс перестраивает карту сайта? Как я упомянул, вывод левых ссылок я убрал, но дубли страниц до сих пор доступны, если ввести адрес в ручную, Поэтому возникает предположение, если Яндекс каждый раз строит карту сайта, то он сам должен выкинуть дублирующие страницы, потому что на них нет ссылок и съесть страницы по правильным адресам.

Имхо проще настроить CMS, или дописать, так, чтобы страницы которых не должно быть выдавали 404 ошибку. А так все предложенные варианты будут не по уму, ну не правильно это, когда ссылок нет, а страницы есть... третий вариант вообще не сработает сто про.

[Удален]
#3

Чем так мучаться, проще CMS довести до ума! С обязательной страницой 404! Должно помочь, по крайной мере, у меня была такая же проблема с моим корпоративным сайтом, и вроде все решилось.

Удачи. :)

Григорий Селезнев
На сайте с 25.09.2001
Offline
298
#4

1) 404 по неверным урлам

2) robots.txt

S
На сайте с 26.04.2006
Offline
86
#5

Дело в том, что я пока смог только убрать ссылки на дубли. А как выдавать ошибку я не придумал. Используется CMS Joomla, кто то может доработать ее так что бы при обращении к дулю выдавалась ошибка?

S
На сайте с 26.04.2006
Offline
86
#6

Все ссылки на стать имеют вид

http://domen.ru/content/view/150/30/

Все ссылки на дубли заканчиваются /1/ по /15/ т.е.

http://domen.ru/content/view/150/1/

http://domen.ru/content/view/150/15/

Я прописал в htaccess:

RewriteEngine on

RewriteCond /1/$ !^/404.php [NC]

RewriteRule /1/$ /404.php

...

RewriteCond /15/$ !^/ 404.php [NC]

RewriteRule /15/$ /404.php

Помогло, но я не селен в mod rewrite, проверьте пожалуйста правильность, а то вдруг где то еще вылезет и будет еще хуже.

Есть наверно способ не писать 15 раз, а указать диапазон от 1 до 15, что то типа

RewriteCond /от 1 до 15/$ !^/404.php [NC]

$ - я так понял означает, что далее знаком уже быть не долно.

D
На сайте с 25.10.2007
Offline
12
#7

Можно еще добавить <meta name=robots content=none> в мета-теги для ошибочных страниц.

Жизнь дана нам одна и прожить ее нужно достойно. (http://www.catalogue.biz.ua)
dex
На сайте с 14.04.2006
Offline
231
dex
#8
Slam:
Имхо проще настроить CMS, или дописать, так, чтобы страницы которых не должно быть выдавали 404 ошибку. А так все предложенные варианты будут не по уму, ну не правильно это, когда ссылок нет, а страницы есть... третий вариант вообще не сработает сто про.

лучше 301 с редиром на единственную оставленную страницу

Яндекс, кстати - тоже учитывает, даже более того - мне показалось любит:)

губит людей вода (подпись не продаю, в долг не даю)
S
На сайте с 26.04.2006
Offline
86
#9

Сделал 404 на дублях, что то другое реализовать не смог.

neznaika
На сайте с 28.06.2006
Offline
356
#10
Strom:
Сделал 404 на дублях

успокойтесь на этом, и ждите

Дорого покупаю настоящие сайты. Не инвестирую деньги и не беру кредиты.
12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий