Как избавиться от наказания за дублированный контент

W
На сайте с 30.11.2004
Offline
147
#11
$GS$:
а зачем на одном сайте иметь 2 одинаковых страницы не вижу логики...

Автор как раз и говорил, что для человека - это две разные страницы, а для робота нет. И давались советы, как и для робота их сделать разными.

B
На сайте с 31.01.2007
Offline
166
#12

Познавательная статья, Спасибо автору":)

M
На сайте с 01.04.2004
Offline
125
#13

в принципе да, кое-что есть полезное.

L
На сайте с 03.05.2006
Offline
171
#14

От себя добавлю - напишите 100-200 слов о том какой ваш магазин хороший, прогоните рандомайзером и на каждую страничку повесте - будет уникально.

Lor
На сайте с 28.05.2004
Offline
352
Lor
#15

А самый лучший выход - продавать совершенно уникальные товары. :)

Йопез - форум без модераторов. https://yopez.com
PrintIP
На сайте с 03.12.2007
Offline
199
#16
Lor:
А самый лучший выход - продавать совершенно уникальные товары. :)

К примеру дворники для монитора ☝

W
На сайте с 30.11.2004
Offline
147
#17
Lor:
А самый лучший выход - продавать совершенно уникальные товары. :)

Я так понимаю это про доски объявлений, где продавец или покупатель пишет уникальный контент сам? :)

B
На сайте с 13.10.2007
Offline
31
#18

Если не жалко, может, и мне, как переводчику репутацию поднимете? :D

п.с.: не напрашиваюсь, поэтому ногами не пинать :)

Lor
На сайте с 28.05.2004
Offline
352
Lor
#19
wilson:
Я так понимаю это про доски объявлений, где продавец или покупатель пишет уникальный контент сам?

Да нет, я в прямом смысле. Дворники для монитора - тоже идея, между прочим. Всегда найдутся чудаки готовые купить детскую коляску на гусенинечном ходу, например. :)

W
На сайте с 08.01.2008
Offline
103
#20

Уважаемые оптимизаторы. Меня как раз волнует вопрос дублированного контента.

Так получается, что на сайте, который я сейчас разрабатываю, одно и то же содержание страниц может встречаться на разных ссылках.

Скажите, возможно ли использованием тэгов <noindex> и аттрибутов rel='nofollow' на одной из страниц-дубликатов добится того, чтобы поисковики считали эти страницы разными?

Или робот только проигнорирует ссылки, но контент признает дублирующимся?

Спасибо.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий