- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Во благо и удобства навигации для посетителя получается что страница с одинаковым контентом будет повторяться много раз на разных урлах. (хлебные крошки)
Естественно все хочу закрыть от индексации или проинформировать ПС что это дубли.
Вижу варианты:
1) Закрыть в robots.txt
2) <meta name="robots" content="none"/>
3) <link rel="canonical" href="http://www.site.ru/page/"/>
Что из этого по эффективности рекомендуете?
Для гугла совет тоже актуален :)
используйте robots.txt
Движое ДЛЕ?
Если ДЛЕ:
Лучше чтобы редиректило на то, что выставлено в админке. Так будут дубли.
Найти:
$tpl->set( '{full-link}', $full_link );
Ниже добавить:
$full_link_ = !isset ($_GET['cstart']) ? $full_link : $link_page . intval ($_GET['cstart']) . ',' . $news_name . '.html';
if ($config['http_home_url'] . substr ($_SERVER['REQUEST_URI'], 1) != $full_link_) {
header ('HTTP/1.1 301 Moved Permanently');
header ('Location: ' . $full_link_);
die ();
}
118088, noindex вам в помощь :)
Я в таких случаях в основном пользуюсь правилами robots.txt
Slavietto, _Dyx Спасибо! robots.txt конечно проверенно надежен. Придумаю паттерн закрытия тысяч страниц =)
Лучше чтобы редиректило
Во благо и удобства навигации для посетителя
greenlen вы про какой noindex? В meta или парный тег?
А по canonical'у не провидилось никаких экспериментов? Он не переносит вес как 301 ошибка?
118088, закрывать не всю страницу, а дублирующийся контент на ней. Если всю, то тогда в robots.txt.
canonical я использовал, яндекс исключил станицу из поиска - однако гугл по ходу его не заметил и все благополучно проиндексировал. Кроме того не знаю передаётся ли в таком случае вес страницы.
Поэтому лучше использовать редирект 301 на соответствующие страницы. А если это невозможно
то закрыть все дубли в robots.txt
greenlen, думал что то интересное предложите. А вы про очевидное =)
Mixasik, 301 категорически отметается в моем случае
Мне интересно, почему яндекс не налаживает санкции на такие сайты:
http://series60.kiev.ua/nokia_5530_xpressmusic/games_symbian_9_4
http://series60.kiev.ua/nokia_5230/games_symbian_9_4/
По запросам: "игры для nokia 5530" и "игры для nokia 5230" на первых местах.
http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=139394