- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
врядли из за статьи.
имхо, склейка дублей предназначена для удаления одинаковых результатов ИЗ ВЫДАЧИ, чтоб небыло одинаковых.
мою хорошую статью перепечатало полсотни сайтов, каждый из них сослался на источник. самые, что нинаесть естественные ссылки. и что, не учитывать их? смешно.
Вот это, имхо конечно, и есть правильно!
Почему склейку результатов выдачи,многи пытаются перетянуть и на работу ссылочного. Разные механизмы, разные критерии.
Тому могут быть совсем другие причины. Например, 50 уникальных стетей копируют 10 сайтов по разу каждую, оставляя ссылки. А одну статью с 50 сайтов никто не будет тянуть к себе 50 раз.
Согласен. Кроме того, следует иметь ввиду, что по заявлению самих представителей яши, на текущий момент механизмы определения нечетких дублей отсутствуют как таковые, но "в разработке". Поэтому работая на будущее, я бы избегал крайностей с множественным копированием.
Что до сомнительности пониженного действия дублей - тут вопрос с моей стороны даже не опытный - это просто логика здравого смысла.
::
Тому могут быть совсем другие причины. Например, 50 уникальных стетей копируют 10 сайтов по разу каждую, оставляя ссылки. А одну статью с 50 сайтов никто не будет тянуть к себе 50 раз. :)
Плюс к тому, на уникальные статьи могут ссылаться обильнее, из-за чего повышается вес страниц, на которых они расположены, и, как следствие - эффективность ссылок.
Ну почему не будут, если статья действительно шедевр? Вполне естественное поведение.
/ru/forum/100541
Тут Слава пишет свое видение продвижения статьями. Есть ответ и на ваш вопрос.