- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И так, решил разобраться с «нечеткими дублями» и отношением Яндекса к ним. После изучения некоторых статей в голове все перемешалось и теперь вот пытаюсь все расставить по полочкам.
Получилось следующее. Все ниже написанное сугубо личное видение проблемы.
Существует два вида дубликатов: «нечеткие дубликаты» и «полные дубликаты».
«Нечеткие дубликаты» зависят от сниппета, т.е. фактически от запроса. Происходит это следующим образом.
- пользователь задает запрос
- Яндекс достает из кэша или вычисляет налету релевантность сайтов запросу и ранжирует сайты, но пока не показывает пользователю
- сравнивает сниппеты на предмет определения дубликатов (возможно сниппеты сравниваются методом шинглов, но вроде это очень ресурсоемко)
- выдает отфильтрованную выдачу, удаляя некоторые дубликаты (по какому принципу оставляются те или иные документы – неясно; может быть выбирается самый релевантный документ, и вместе с ним в выдачу попадают наименее похожие на него документы)
То что фильтр такого типа существует, косвенно доказывают слова Сегаловича (не могу их найти) и то, что выдача с различными настройками поиска (конкретно, количество отображаемых фрагментов со словами запроса) различная. При настройках «отображать не более 5 фрагментов» в выдаче больше сайтов, чем при настройках «отображать не более 1 фрагмента». Попробуйте запрос «Во & второй & главе & реферата & посвящена & практике & маркетинговой & деятельность & организации & на & примере & сервер & дукса» - в первом случае в выдаче 27 сайтов, во втором – 21 сайт. Все здесь логично – при отображении одного пассажа в сниппете, сниппеты более похожи, чем когда отображается 5 пассажей в сниппете.
Теперь разберемся с «полными дубликатами». Мне кажется, такие дубликаты определяются в момент индексации страницы. Метод определения дубликатов - «метод описательных слов» - http://company.yandex.ru/articles/article7.html (русский вариант http://webmastera.org/files/File/secur/FindClonDoc.pdf) комментарии Сегаловича - /ru/forum/56951
Страницы, выявленные как полные дубликаты – выкидываются из базы. Часто такое происходит со страницами одного сайта (например, каталог товаров, когда значимой информации гораздо меньше, чем слов в навигационной части). По какому принципу Яндекс выкидывает те или иные дубликаты – неизвестно, я думаю, по совокупности признаков как то: временные факторы, «рейтинг ресурса», доверие к ресурсу и проч.
_________________________
Собственно, какое мнение у вас?
Вот нашел высказывание Садовского /ru/forum/21906 - пост №9
ИМХО.
Четкие дубликаты отдельных страниц на разных сайтах - в общей массе нечетких дубликатов редкость, по крайней мере, что бы их как-то отдельно фильтровать на этапе индексации - выигрыша особенного нет.
Нечеткие дубликаты отдельных страниц на разных сайтах фильтруются, как Вы сказали, по сниппетам, в момент запроса.
Не четкие и четкие дубликаты сайтов приводят к образованию зеркал, этим занимается зеркальщик.
Четкие дубли страниц на одном сайте приводят к склейке, в т.ч. ссылочного.
Четкие (пока несклеянные) и нечеткие дубли страниц, фильтруются по сниппетам в момент запроса.
Я так понимаю что из-за дубликатов страниц могут жутко понизить того, кого проиндексировали вторым?
Я так понимаю что из-за дубликатов страниц могут жутко понизить того, кого проиндексировали вторым?
неа, не обязательно....
Есть сайт, с которго поперли всю информацию... сейчас морд очень низко, внутрянки (двигавшиеся) еще ниже... вышевсякая фигня с нашим контентом.. дело не в последнем алгоритме, сайт вообще не выползал за полгода работы наверх (я им занимаюсь третий день).
Есть сайт, с которго поперли всю информацию... сейчас морд очень низко, внутрянки (двигавшиеся) еще ниже... вышевсякая фигня с нашим контентом.. дело не в последнем алгоритме, сайт вообще не выползал за полгода работы наверх (я им занимаюсь третий день).
"Ты последний"? :)
"Ты последний"?
Да, боюсь что он... мне пока не дают разрешение на смену контента... потому как надо заставить Яндекс моментально проиндексировать его (не нашел приемлемого способа), потому как его опять попрут и толку от работы ноль...разве что писать 50 текстов и менять каждый день.