- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
WSGU, яндекс не использует шинглы (про гугл ничего не скажу) хотя бы потому, что этот алгоритм требует попарного сравнения контрольных сумм. А теперь представьте, что такое попарное сравнение для миллиарда страниц. Кроме этого, алгоритм шинглов неустойчив даже по отношению к банальному изменению порядка слов. Другими словами, он максимум что может определить, так это процент копи-паста без каких-либо изменений.
Яндекс, согласно их же статьям, использует все же шинглы (супершинглы). + лексические сигнатуры. Но для оценки схожести одной статьи с другой можно обойтись только одними шинглами
Но для оценки схожести одной статьи с другой можно обойтись только одними шинглами
Нет нельзя, потому что
он максимум что может определить, так это процент копи-паста без каких-либо изменений
а рерайтеры до такой наглости редко доходят. Тем более, что
По программе: если я удаляю часть переписанного текста, то он становится более уникальным. Но это не так.
Сравнил два рерайта (из 70), созданных этой прогой (при 10 макроподстановках на 1к символов) - сходство 31%. Это считается хороший рерайт или наоборот?
Сравнил два рерайта (из 70), созданных этой прогой (при 10 макроподстановках на 1к символов) - сходство 31%. Это считается хороший рерайт или наоборот?
Если менее 50% то нормальный. Границей уникальности (согласно статьям от яндекса) является 50% граница. Поэтому неважно, что при удалении части текста может уменьшаться процент схожести, он все равно не становиться меньше 50%, а значит такие статьи считаются дубликатами.
WSGU, спасибо за такой нужный сервис!!!
p.s. с днем рождения!