Дублированный контент - как защититься?

I2
На сайте с 04.10.2007
Offline
14
988

Добрый день.

есть страница со списком моих друзей http://moisait.ru/myfriends.php

она содержит уникальный контент - список моих друзей.

Однако есть еще ряд похожих страниц, например

http://moisait.ru/myfriends.php?=sort1

http://moisait.ru/myfriends.php?=sortname

которые содержат тот же список друзей, но сортированный в другом порядке. То есть контент дублируется, а урлы разные. Результат - все страницы с друзьями в яндексе идут нах. В лучше случае по запросу "мои друзья" выдается главная страница, а все страницы с друзьями сидят в "Еще с сайта"...

вопрос: как оставить для индексации страницу http://moisait.ru/myfriends.php, при этом закрыть от индексации все другие страницы вида http://moisait.ru/myfriends.php?=sort ...

поможет ли метатег - robots=noindex nofollow в теле страницы с дубл контентом.?

вобще посоветуйте что делать с этой бедой.

doker
На сайте с 29.10.2007
Offline
58
#1

в файле роботс пропишите запрет тех страниц/разделов, которые не должны попадать в индекс (и роботы не будут туда ходить). поюзайте поиск по форуму, тут много раз писали, что и как делать. :)

если страница одна-две и их можно редактировать вручную, то в метатегах в хеде также можно прописать строчку для все роботов, типа : <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Все ссылки Рунета (http://www.rookee.ru/Web/Register.aspx?pid=95008f55873ece36ccd5c0382bf9df33957452) - учет тематики, региональность, гарантия индексации, пакетное продвижение НЧ! Нет времени на статьи? Ссылки навсегда на качественных сайтах (http://gogetlinks.net/register_user.php?inv=26n0nt)! Отличная биржа ссылок Mainlink (http://www.mainlink.ru/?partnerid=40266).
I2
На сайте с 04.10.2007
Offline
14
#2

> в файле роботс пропишите запрет тех страниц/разделов

я знаю как закрыть папку, но как закрыть тысячи разных страниц с урлами вида
mypage.php?variant=1 и при этом оставить страницу mypage.php в индексе?

>то в метатегах в хеде также можно прописать строчку для все роботов, типа : <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Если я проставлю во всех страницах которые дублируются содержимым такие теги в хеде - это на 100% гарантирует НЕИНДЕКСАЦИЮ таких страниц? Допустим если кто-то поставит внешнюю ссылку? Все равно будет все ок?

EG
На сайте с 25.02.2008
Offline
110
#3

Ignat23, можно запретить в robots.txt индексацию страниц по маске...

например строчка

Disallow: /mypage.php?variant

запретит индексацию всех страниц начинающихся на mypage.php?variant, но оставит разрешенными mypage.php, mypage2.php, mypage.php?var=2 и тд

dansokolov
На сайте с 25.09.2007
Offline
141
#4

Идут нах не поэтому, но дубли надо убирать.

Лучше всего через robots.txt, как уже неоднократно сказано выше. А если есть возможность убрать ПРОГРАММНО дубли через CMS, то лучше сделать через CMS

I2
На сайте с 04.10.2007
Offline
14
#5

спасибо за ответы. но админка сделана так, что мне гораздо проще напихать в тайтлы тег <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> - но вроде говорят, что поисковики не очень к нему относятся, когда он на многих страницах натыкан...

кто может про это взвешенно объяснить?

> А если есть возможность убрать ПРОГРАММНО дубли через CMS, то лучше сделать через CMS

Это как? я не понял. чтобы вообще не было дублей? Увы дублей избежать нельзя. Контент сортируется по многим параметрам, и на разных страницах.

I2
На сайте с 04.10.2007
Offline
14
#6

кто0нибудь из профиков может дать толковый совет?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий