- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые оптимизаторы, подскажите, каким должен быть максимальный процент схожести статей, чтобы ПС посчитали их как уникальные? И каким способом это лучше всего проверять.
Спасибо.
Конечно, наилучшим вариантом является размещение уникальных статей. Но для рекламной кампании это слишком затратный вариант как с точки зрения времени, так и с точки зрения финансов.
Лично я размножаю статьи по следующему принципу: пишу статью, переписываю ее (глубокий рерайт) несколько раз и размножаю полученные тексты путем замены слов синонимами. При этом весь текст делю на группы до 5 слов (стоп-слова не учитываются). Т.е. беру 1 группу из 5 слов, заменяю слова в ней 2-3 синонимами, перебираю полученные слова. Таким образом, на выходе из одной статьи получается в среднем 30-50 уникальных для Яндекса статей, которые в данный момент склейке не подвергаются.
каким должен быть максимальный процент схожести статей, чтобы ПС посчитали их как уникальные?
Нет такого процента. Всё гораздо сложнее.
Нет такого процента. Всё гораздо сложнее.
А можно немного "развернуть" ответ? Хотя бы направление для раздумий.
И каким способом это лучше всего проверять.
Воспользуйтесь программами для проверки на схожесть текста в сети интернет. Я пользуюсь DCFinder
Воспользуйтесь программами для проверки на схожесть текста в сети интернет. Я пользуюсь DCFinder
Я имею ввиду статьи для обмена, т.е. получаю я из одной скажем 1000 и сравниваю их(прога - Shingles).
Так вот, насколько уникальными они должны быть(эта программа показывает в процентах), чтобы ПС их не склеили?
UDSeo, почитайте про методы определения дубликатов.
(прога - Shingles).
можно ссылочку на прогу?
можно ссылочку на прогу?
/ru/forum/comment/2702101
В статье главного разработчика Яндекса Ильи Сегаловича описывается метод, при помощи которого Яндекс обнаруживает копии.
- - - -
Очевидно, что с полными повторами проблем особых нет, достаточно сохранять в индексе контрольную сумму текста и игнорировать все остальные тексты с такой же контрольной суммой. Однако этот метод не работает для выявления хотя бы чуть-чуть измененных документов.
...
Для каждого десятисловия текста рассчитывается контрольная сумма (шингл). Десятисловия идут внахлест, с перекрытием, так, чтобы ни одно не пропало. А затем из всего множества контрольных сумм (очевидно, что их столько же, сколько слов в документе минус 9) отбираются только те, которые делятся на, скажем, 25. Поскольку значения контрольных сумм распределены равномерно, критерий выборки никак не привязан к особенностям текста. Ясно, что повтор даже одного десятисловия – весомый признак дублирования, если же их много, скажем, больше половины, то с определенной (несложно оценить вероятность) уверенностью можно утверждать: копия найдена! Ведь один совпавший шингл в выборке соответствует примерно 25 совпавшим десятисловиям в полном тексте!
Программа Shingles - подойдет для проверки уникальности статей? Если да, то какой процент она должна показывать?