- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если я правильно понял, то шинглы для того, чтобы вычеслять умников которые делают рерайт статей перестановкой слов и предложений?
Если я правильно понял, то шинглы для того, чтобы вычеслять умников которые делают рерайт статей перестановкой слов и предложений?
ну если переводить в технологию саттелитов - то да...
а в теории - для того, чтобы очистить и оптимизировать СЕРП
Если я правильно понял, то шинглы для того, чтобы вычеслять умников которые делают рерайт статей перестановкой слов и предложений?
Не совсем алгоритм шингов не шибко стойкий, хотя он может определить незначительную ручную работу над текстом. Частую перестановку слов он не сможет определить. А вот перестановку больших предложений или абзацев он сможет определить.
Гугл тоже использует шинглы?
Гугл тоже использует шинглы?
или что-то другое?
я правильно понял - шинглы могут быть разные?
или что-то другое?
я правильно понял - шинглы могут быть разные?
Гугл использует другой алгоритм.
Не понял вопрос про разные шинглы.
Реализация может быть разная алгоритма
1. По длине основания. ... 7,8,9,10,11 ... слов
2. По предваительной фильтрации. Удаление стоп слов, преобразование синонимов и т.д
3. По сверке например: 85 максимумов случайных функций
4. Устойчивости шингла от порядка слов.
5. И самое главное критерии необходимости проверки (супер шинглы, связь сайтов ссылками) и другое.
Hkey,
Не понял вопрос про разные шинглы.
Реализация может быть разная алгоритма
1. По длине основания. ... 7,8,9,10,11 ... слов
2. По предваительной фильтрации. Удаление стоп слов, преобразование синонимов и т.д
3. По сверке например: 85 максимумов случайных функций
4. Устойчивости шингла от порядка слов.
5. И самое главное критерии необходимости проверки (супер шинглы, связь сайтов ссылками) и другое.
это и был ответ на мой вопрос! Спасибо!
Гугл использует другой алгоритм.
Какой? Где о нем почитать?
Какой? Где о нем почитать?
может быть повторюсь - но никто не афиширует алгоритм этой работы...
иначе... иначе было бы очень интересно ;-)
MASe, но о алгоритме Яндекса хоть что-то извесно! неверю, что о Гугле, а точнее о том как он определяет дубли ничего не извесно! Интересуют даже догадки!
Разве Яндекс до сих пор использует метод шинглов?