- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Имеется цель - повысить пиар сайта через линки со статей запостеных по директориям со статьями, каждая стаья уникальна, но дублируется по многим сайтам.
Так вот, насколько ухудшается качество входящих линков со статей после прогона по 10-20-30-ти ресурсам и ... дальше -- вплоть до 300? Ухудшается ли оно настолько, что лучше запостить одну уникальную статью на 1 ресурс и получить 1-2 линка, вместо того, чтобы прогонять статью по 200-м ресурсам, чтобы в итоге не получить нормальных линков вообще? Учтем, что цель этой статьи не траффик, а именно качество линков (т.е. передаваемый пиар).
Сколько не искала инфы по этому вопросу, конкретно никто ничего не пояснет... Вы же не прогоняете статью бездумно до 200-м ресурсам, верно?
а разве тут не работает правило чем больше тем лучше?
с какой стати увеличение количества ссылок уменьшает их общий вес?
Хотя как мне кажется 1 добровольная ссылка на статью превышает в сумме 300 ссылок с директорий и каталогов :)
а разве тут не работает правило чем больше тем лучше?
с какой стати увеличение количества ссылок уменьшает их общий вес?
Из того, что я вычитала на буржуйских форумах и статьях на эту тему, если контент статьи не изменен, то сабмит статьи по многим ресурсам уменьшает качество самих ссылок с этих ресурсов так как статья идентичная. Более того, исходя из поставленных экспериментов одним буржуином -- http://www.seochat.com/c/a/Google-Optimization-Help/Duplicate-Content-Penalties-Problems-with-Googles-Filter/1/ - в выдаче после сабмита осталось всего 46 статей в гугле, хотя изначально статья была просабмитена по 16000 ресурсам. Из чего выходит:
1. линки сами постепенно отпадают
2. а какое качество у этих 16000 линков, если статей нет в выдаче и они подпали под фильтр?
Т.е. возможно, стоит ограничиться сабмитом по 50-ти ресурсам, если в итоге все равно остается всего 46 статей в выдаче.
Если я что-то намудрила, поправьте..
Чем больше тем лучше работает всегда, ведь текст статей один, а контенкст у разных ресурсов разный. Но на субмит статьи на сайт который имеет меньший рейтинг у гугла уйдет столько же времени сколько и на субит на очень качественный сайт. Если вы можете писать уникальные статьи в темпе позволяющем субмитить всего в 50 качественных ресурсов, при этом не особо теряя времени на написание, то лучше кончено ограничиться ими.
Если текст статьи одинаков произойдет склей. Поэтому беков мало.:D
Garywell, у тебя есть еще какие-нить качественные туристические сайты?
Если текст статьи одинаков произойдет склей. Поэтому беков мало.:D
А после сабмита по скольки ресурсах начинается склеивание? И что сделать, чтобы этого избежать?
Типа:
перефразирование
измена тайтла
замена 30% контента
добавление контента
Что именно из этого предпринимать?
А после сабмита по скольки ресурсах начинается склеивание? И что сделать, чтобы этого избежать?
Чтобы избежать склея нужно чтобы не было повторений.
Все гениально и просто!!!☝
:D :D :D
еще вопрос:
а каким образом гугл склеивает? Как это проявляется применительно к статьям?
К примеру - бэклинки отпадают - это склей?
Или ничего не отпадает, но просто пиар не передается - и это склей?
Как определить была статья склеена или нет?
Я больше по Яндекс говорил, с Гуглом пока вплотную не работаю.......
Из того, что я вычитала на буржуйских форумах и статьях на эту тему, если контент статьи не изменен, то сабмит статьи по многим ресурсам уменьшает качество самих ссылок с этих ресурсов так как статья идентичная. Более того, исходя из поставленных экспериментов одним буржуином -- http://www.seochat.com/c/a/Google-Optimization-Help/Duplicate-Content-Penalties-Problems-with-Googles-Filter/1/ - в выдаче после сабмита осталось всего 46 статей в гугле, хотя изначально статья была просабмитена по 16000 ресурсам. Из чего выходит:
1. линки сами постепенно отпадают
2. а какое качество у этих 16000 линков, если статей нет в выдаче и они подпали под фильтр?
Т.е. возможно, стоит ограничиться сабмитом по 50-ти ресурсам, если в итоге все равно остается всего 46 статей в выдаче.
Если я что-то намудрила, поправьте..
Я думаю, что у того человека с его экспериментом было следующее - страницы с его статьей попали в дополнительный индекс (suplemental results) и не отобразилиь ему в основном - обычно внизу выдачи идет ссылка с текстом repeat the search with the omitted results included (если добавить к его запросу filter=
0, то скорее он увидит все сайты).
Ссылки с таких страниц либо имеют меньший вес либо его вообще не имеют.
По поводу изменений - чем они будут обширнее, тем больше вероятности в том, что гугл не посчитает это дубликатом.