Дубли на сайте на которые нет ссылок. Можно?

C
На сайте с 25.04.2012
Offline
21
546

Приветствую всех!

Тупой вопрос, но все же, хочу быть на 100% уверен.

Если на сайте есть стр. дубли с разными урлами (джумла 2.5. К2), но на один из них ни откуда никаких ссылок нет в принципе. ни внешних. ни внутренних, такие страницы же в индекс не попадут и робот не будет их учитавыть/тратить на них время?

Filan
На сайте с 26.05.2011
Offline
119
#1
crimaniac:
Если на сайте есть стр. дубли

то ПС будут их учитывать, из нужно закрывать.

september
На сайте с 11.09.2009
Offline
591
#2
такие страницы же в индекс не попадут и робот не будет их учитавыть/тратить на них время?

Гуглобот даже страницы, закрытые в роботсе индексирует, а вы хотите, чтобы он дубли не индексировал. В любом случае лучше закрыть в роботсе и спать спокойно.

$ карта для вывода вебмани в любой точке мира (https://www.epayments.com/registration?p=dc2462e885)
C
На сайте с 25.04.2012
Offline
21
#3

такая значит логика, ясно. благодарю

sabotage
На сайте с 14.02.2007
Offline
192
#4
crimaniac:
ни откуда никаких ссылок нет в принципе. ни внешних. ни внутренних

Нет, не попадут. Пока ПС о них не узнают. А узнать они могут в том числе и от тебя. Посмотришь на свои дубли с тулбаром или метрикой и удивишься. Это тот случай, когда проблему надо решать до ее наступления.

S
На сайте с 22.11.2009
Offline
21
#5

Robots.txt - крепкий сон. Дублем считается даже WWW.site.. что уж там если весь сайт зеркалит контентом...

"Поиск центра своего круга..." "раскрутка сайта недорого..." (http://sanmi.ru/)
sabotage
На сайте с 14.02.2007
Offline
192
#6
Sanmi:
Robots.txt - крепкий сон

Это не лекарство от дублей, максимум костыль, и то неполноценный.

C
На сайте с 25.04.2012
Offline
21
#7

вообще сайт на джумле 2.5 , компонент К2, как я говорил. при создании для матриала и атегории пункта меню можно задать красивые чпу. но при этом сохраняются и старые некрасивые чпу (человекопротивные). вот и думаю чего делвать. то ли дубли плодить , прописав правило в роботс, то ли от чпу отказаться..

felix345
На сайте с 09.12.2009
Offline
91
#8

Ну если на сайте все ссылки типа site.ru/categoria/muhagubka.html, а ссылки с передачей параметров через get (типа таких site.ru?grw=12&hertam=tut...) не используются, то можно смело в роботсе прописать "Disallow: *?" для все ботов, а еще лучше htacces, чтобы выдавал, что страница не существует.

Никогда нельзя отказываться от мечты.
Я покажу тебе как они сбываются.
И твоя сбудется обязательно!
d4k
На сайте с 02.03.2010
Offline
146
d4k
#9

Редирект тебе в помощь) mod_rewrite, .htaccess, регулярные выражения.

C
На сайте с 25.04.2012
Offline
21
#10

а вообще чем тогда лучше пожертвовать?

заняться разведением дублей, уничтожая их в роботс и htaccess или может лучше отказаться от чпу?

С дублями выходят чпу такие, какие захочу, без них же только концовка человекопонятна, а до нее всякие category и itemlis типа

www.site.ru/item/category/32-dostavka-schebny-na-dom

статей со временем будет много, сотни. так может быть пожертвовать чпу,

или если закрывать и редиректить их это безвредно?

На производительности не скажется ?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий