Был где-то документ, где Яндекс пишет о том, что он умеет в автоматическом режиме определять форумы, блоги, коммерческие сайты и т.п. Исходя из этого у каждого сайта есть определенные набор параметров по уникальности текста и т.п. Имхо, для форума допустим неуникальный контент - цитаты, копирования и т.п.
Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".
В качестве примера по одному из коммерческих запросов:
Т.е. в каждом конкретном случае надо смотреть выдачу по запросам.
Вопрос 2 - как такое могло произойти что через год текст стал не уникальным? Все как обычно, парсеры, дорвеи, саттелиты, курсовые, рефераты и т.п. - все воруют у всех;
Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи?
Это не учитывает, в одном из видео Яндекса они говорили, что используют обучаемые алгоритмы распознавания типов сайтов. Где-то валялся документ, в котором Яндекс описывает то, как он определял тип сайта форум/блог/статейник портал/новостник. Теоритически не должен ничего за это делать, иначе у всех был бы переспам по слову "Главная" или "Контакты" и наложены были бы фильтры.
Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?
В каждом конкретном случае нужно смотреть выдачу, если сидят с уникальными текстами - есть вероятность, что по такому типу запроса нужен уникальный контент и наоборот. Берешь парсер выдачи, потом загоняешь полученные урлы в проверку уникальности и делаешь вывод.
Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?
В общем случае хватает стандартной, особенно, если необходимо простые тексты на категории магазина, к примеру, проверить. А если это аналитическая статья или лонгрид - то глубокая.
Честно говоря не совсем ясен вопрос.
То, что site: находится это значит, что проиндексировано основным роботом.
У вас стоит https://cse.google.ru/cse/ - и не находит, правильно?
1. Покупаешь прокси для Кейколлектора.
1 прокси, это +1 поток проверки.
Если у тебя 10 прокси, то это 11 потоков получения данных (+1 твой основной адрес)
2. Покупаешь на сервисе анти капч.
Т.к. автоматизированно обходятся капчи в несколько раз ускоряется сбор.
3. Не забывай про настройки сети - сейчас Яндекс позволяет при оптимальном кол-ве капч работать в режиме 15-30 сек.
Проверял пакетно 50 страниц по выдаче Яндекса.
Каким образом я могу поставить "на паузу" проверку уникальности?
Столкнулся с проблемой, что во время проверки сервис ********и целый час пытался пробить капчу яндекса и писал, что нет свободных работников.
Пошел в другой сервис и там получил api ключ, который не могу заменить в процессе проверки, пришлось останавливать полностью все проверки (1 статья недопроверилась), менять ключ для сервиса и другую ********у.
это никак не связано, если бы инфа из того, что украдено, была бы в сети - то однозначно под соусом - продаж или раздач. Нет ни того, ни другого.
Мне кажется, что это вообще был повод какие-нибудь внутренние изменения сделать, типо: разыграем вороство алгоритма для сеошников и под это дело быстренько выкатим десяток убивающих сео апдейтов
Все с целью увеличения прибыли в директе - многоходовочка.
Но это моя параноя)
Не закрывайте, посмотрите на эффект. Как только заметите снижение, пробегитесь и закройте, посмотрите эффект.
Profit :)
Yandex никогда никого не радовал, только свой карман.
теперь будут статьи: "Как попасть в ротацию молодому сайту"