Duplicate content summit at SMX Advanced

hypno
На сайте с 17.07.2006
Offline
110
1083

На саммите мы хотели узнать какие именно технологии дублирования вызывают наиболее жаркие споры участников. Этими технологиями оказались копирование сайта, синдикация (RSS) и дубликаты внутри одного сайта. Мы обсудили возможные пути решения этих вопросов и некоторые решения предложенные участниками саммита будут рассмотрены наряду с нашими внутренними разработками. Я приведу некоторые из возможных решений для того что бы те кто не принимал участие в саммите могли принять участие в обсуждении.

Сегодня допереводил статью о дублированном контенте с googlewebmastercentral.blogspot.com , перевод еще сыроват так что не пинайте :)

читать вот здесь

Из полезного узнал такие вещи:

- количество nofollow не влияет на позицию в серпе

- есть команда filter=0 , которая показывает отфильтрованные результаты

- возможно скоро появится сервис определения дубликатов ( т.е. вэбместера будут знать о том на каких сайтах копии их статей )

L
На сайте с 03.05.2006
Offline
171
#1

Интересно то что дублированый контент не влечет штрафных санкций для сайта + никак не связан с суплементалом.

hypno
На сайте с 17.07.2006
Offline
110
#2

ага, еще интересно то, что сайтмэпс можно указывать через robots.txt

команда sitemap: http://www.site.ru

bulldozer
На сайте с 04.12.2006
Offline
32
#3
luxs:
Интересно то что дублированый контент не влечет штрафных санкций для сайта + никак не связан с суплементалом.

напоминает ролик Катса... сопли - это нормально, не переживайте...

давайте делать под каждый размер, объем, кол-во, цвет упаковки товара, отдельную страницу....

санкций ведь не будет...

и спамить по соц сетям...

Бэки+PR по IP (http://www.domain-pop.com/) | free keyword research (http://www.spacky.com/) | Zip Codes (http://zipinfo.com/search/zipcode.htm)
SE
На сайте с 16.05.2007
Offline
2
#4
luxs:
Интересно то что дублированый контент не влечет штрафных санкций для сайта + никак не связан с суплементалом.

да гугля запросто в СРы забирает уникальный контент, а потом вообще нах выкидывет из индекса, пока ему ссылками не покажешь что документ не кусок дорвея или каталога а типа представляет для когото интерес и на неё сослались.

D
На сайте с 29.01.2007
Offline
5
#5

Спасибо за статью, а что такое авторитет сайта не подскажите?

В настоящее время мы используем несколько факторов таких как авторитет сайта и количество ссылок на страницу с текстом.
W
На сайте с 30.11.2004
Offline
147
#6

Сервис для определения дублей давно есть - copyscape.com - причем работает только по сайтам, прокушанным гуглем. Возможно это его сервис ;)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий