Дубли страниц

12
118088
На сайте с 10.03.2009
Offline
30
1295

Во благо и удобства навигации для посетителя получается что страница с одинаковым контентом будет повторяться много раз на разных урлах. (хлебные крошки)

Естественно все хочу закрыть от индексации или проинформировать ПС что это дубли.

Вижу варианты:

1) Закрыть в robots.txt

2) <meta name="robots" content="none"/>

3) <link rel="canonical" href="http://www.site.ru/page/"/>

Что из этого по эффективности рекомендуете?

Для гугла совет тоже актуален :)

Slavietto
На сайте с 28.06.2009
Offline
76
#1

используйте robots.txt

PD
На сайте с 05.09.2011
Offline
15
#2

Движое ДЛЕ?

Если ДЛЕ:

Лучше чтобы редиректило на то, что выставлено в админке. Так будут дубли.

Отрыть /engine/modules/show.full.php
Найти:

$tpl->set( '{full-link}', $full_link );

Ниже добавить:

$full_link_ = !isset ($_GET['cstart']) ? $full_link : $link_page . intval ($_GET['cstart']) . ',' . $news_name . '.html';
if ($config['http_home_url'] . substr ($_SERVER['REQUEST_URI'], 1) != $full_link_) {
header ('HTTP/1.1 301 Moved Permanently');
header ('Location: ' . $full_link_);
die ();
}
Баннерная сеть + псевдоподписки (2 в 1)! Впервые в WAP`e! Конвертабельный лейдинг! Ратио 1:2! (http://rusban.su/?ref=1)
greenlen
На сайте с 30.05.2011
Offline
117
#3

118088, noindex вам в помощь :)

[Удален]
#4

Я в таких случаях в основном пользуюсь правилами robots.txt

118088
На сайте с 10.03.2009
Offline
30
#5

Slavietto, _Dyx Спасибо! robots.txt конечно проверенно надежен. Придумаю паттерн закрытия тысяч страниц =)

PHPSID:
Лучше чтобы редиректило

Во благо и удобства навигации для посетителя

greenlen вы про какой noindex? В meta или парный тег?

А по canonical'у не провидилось никаких экспериментов? Он не переносит вес как 301 ошибка?

greenlen
На сайте с 30.05.2011
Offline
117
#6

118088, закрывать не всю страницу, а дублирующийся контент на ней. Если всю, то тогда в robots.txt.

M
На сайте с 29.04.2011
Offline
17
#7

canonical я использовал, яндекс исключил станицу из поиска - однако гугл по ходу его не заметил и все благополучно проиндексировал. Кроме того не знаю передаётся ли в таком случае вес страницы.

Поэтому лучше использовать редирект 301 на соответствующие страницы. А если это невозможно

то закрыть все дубли в robots.txt

118088
На сайте с 10.03.2009
Offline
30
#8

greenlen, думал что то интересное предложите. А вы про очевидное =)

Mixasik, 301 категорически отметается в моем случае

A
На сайте с 17.04.2009
Offline
90
#9

Мне интересно, почему яндекс не налаживает санкции на такие сайты:

http://series60.kiev.ua/nokia_5530_xpressmusic/games_symbian_9_4

http://series60.kiev.ua/nokia_5230/games_symbian_9_4/

По запросам: "игры для nokia 5530" и "игры для nokia 5230" на первых местах.

Олежан
На сайте с 04.12.2008
Offline
27
#10
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий