дублирование статей по многим ресурсам и качество линков

123 4
Дама
На сайте с 23.03.2006
Offline
16
1987

Имеется цель - повысить пиар сайта через линки со статей запостеных по директориям со статьями, каждая стаья уникальна, но дублируется по многим сайтам.

Так вот, насколько ухудшается качество входящих линков со статей после прогона по 10-20-30-ти ресурсам и ... дальше -- вплоть до 300? Ухудшается ли оно настолько, что лучше запостить одну уникальную статью на 1 ресурс и получить 1-2 линка, вместо того, чтобы прогонять статью по 200-м ресурсам, чтобы в итоге не получить нормальных линков вообще? Учтем, что цель этой статьи не траффик, а именно качество линков (т.е. передаваемый пиар).

Сколько не искала инфы по этому вопросу, конкретно никто ничего не пояснет... Вы же не прогоняете статью бездумно до 200-м ресурсам, верно?

веб-студия кидал http://stardesign.org (http://stardesign.org) -- /ru/forum/comment/1507215 (/ru/forum/comment/1507215)
HP
На сайте с 30.05.2006
Offline
175
#1

а разве тут не работает правило чем больше тем лучше?

с какой стати увеличение количества ссылок уменьшает их общий вес?

Хотя как мне кажется 1 добровольная ссылка на статью превышает в сумме 300 ссылок с директорий и каталогов :)

Дама
На сайте с 23.03.2006
Offline
16
#2
HruPifPaf:
а разве тут не работает правило чем больше тем лучше?
с какой стати увеличение количества ссылок уменьшает их общий вес?

Из того, что я вычитала на буржуйских форумах и статьях на эту тему, если контент статьи не изменен, то сабмит статьи по многим ресурсам уменьшает качество самих ссылок с этих ресурсов так как статья идентичная. Более того, исходя из поставленных экспериментов одним буржуином -- http://www.seochat.com/c/a/Google-Optimization-Help/Duplicate-Content-Penalties-Problems-with-Googles-Filter/1/ - в выдаче после сабмита осталось всего 46 статей в гугле, хотя изначально статья была просабмитена по 16000 ресурсам. Из чего выходит:

1. линки сами постепенно отпадают

2. а какое качество у этих 16000 линков, если статей нет в выдаче и они подпали под фильтр?

Т.е. возможно, стоит ограничиться сабмитом по 50-ти ресурсам, если в итоге все равно остается всего 46 статей в выдаче.

Если я что-то намудрила, поправьте..

G
На сайте с 28.04.2006
Offline
65
#3

Чем больше тем лучше работает всегда, ведь текст статей один, а контенкст у разных ресурсов разный. Но на субмит статьи на сайт который имеет меньший рейтинг у гугла уйдет столько же времени сколько и на субит на очень качественный сайт. Если вы можете писать уникальные статьи в темпе позволяющем субмитить всего в 50 качественных ресурсов, при этом не особо теряя времени на написание, то лучше кончено ограничиться ими.

SN
На сайте с 30.11.2006
Offline
4
#4

Если текст статьи одинаков произойдет склей. Поэтому беков мало.:D

Никогда не знаешь - где найдешь, где потеряешь!
SN
На сайте с 30.11.2006
Offline
4
#5

Garywell, у тебя есть еще какие-нить качественные туристические сайты?

Дама
На сайте с 23.03.2006
Offline
16
#6
ShpioN:
Если текст статьи одинаков произойдет склей. Поэтому беков мало.:D

А после сабмита по скольки ресурсах начинается склеивание? И что сделать, чтобы этого избежать?

Типа:

перефразирование

измена тайтла

замена 30% контента

добавление контента

Что именно из этого предпринимать?

SN
На сайте с 30.11.2006
Offline
4
#7
Дама:
А после сабмита по скольки ресурсах начинается склеивание? И что сделать, чтобы этого избежать?

Чтобы избежать склея нужно чтобы не было повторений.

Все гениально и просто!!!☝

:D :D :D

Дама
На сайте с 23.03.2006
Offline
16
#8

еще вопрос:

а каким образом гугл склеивает? Как это проявляется применительно к статьям?

К примеру - бэклинки отпадают - это склей?

Или ничего не отпадает, но просто пиар не передается - и это склей?

Как определить была статья склеена или нет?

SN
На сайте с 30.11.2006
Offline
4
#9

Я больше по Яндекс говорил, с Гуглом пока вплотную не работаю.......

W
На сайте с 30.11.2004
Offline
147
#10
Дама:
Из того, что я вычитала на буржуйских форумах и статьях на эту тему, если контент статьи не изменен, то сабмит статьи по многим ресурсам уменьшает качество самих ссылок с этих ресурсов так как статья идентичная. Более того, исходя из поставленных экспериментов одним буржуином -- http://www.seochat.com/c/a/Google-Optimization-Help/Duplicate-Content-Penalties-Problems-with-Googles-Filter/1/ - в выдаче после сабмита осталось всего 46 статей в гугле, хотя изначально статья была просабмитена по 16000 ресурсам. Из чего выходит:
1. линки сами постепенно отпадают
2. а какое качество у этих 16000 линков, если статей нет в выдаче и они подпали под фильтр?

Т.е. возможно, стоит ограничиться сабмитом по 50-ти ресурсам, если в итоге все равно остается всего 46 статей в выдаче.

Если я что-то намудрила, поправьте..

Я думаю, что у того человека с его экспериментом было следующее - страницы с его статьей попали в дополнительный индекс (suplemental results) и не отобразилиь ему в основном - обычно внизу выдачи идет ссылка с текстом repeat the search with the omitted results included (если добавить к его запросу filter=

0, то скорее он увидит все сайты).

Ссылки с таких страниц либо имеют меньший вес либо его вообще не имеют.

По поводу изменений - чем они будут обширнее, тем больше вероятности в том, что гугл не посчитает это дубликатом.

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий