dan-pro

dan-pro
Рейтинг
55
Регистрация
11.02.2012
Должность
SEO

Был где-то документ, где Яндекс пишет о том, что он умеет в автоматическом режиме определять форумы, блоги, коммерческие сайты и т.п. Исходя из этого у каждого сайта есть определенные набор параметров по уникальности текста и т.п. Имхо, для форума допустим неуникальный контент - цитаты, копирования и т.п.

Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".

В качестве примера по одному из коммерческих запросов:

Т.е. в каждом конкретном случае надо смотреть выдачу по запросам.

Вопрос 2 - как такое могло произойти что через год текст стал не уникальным?
Все как обычно, парсеры, дорвеи, саттелиты, курсовые, рефераты и т.п. - все воруют у всех;

Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи?

Это не учитывает, в одном из видео Яндекса они говорили, что используют обучаемые алгоритмы распознавания типов сайтов. Где-то валялся документ, в котором Яндекс описывает то, как он определял тип сайта форум/блог/статейник портал/новостник. Теоритически не должен ничего за это делать, иначе у всех был бы переспам по слову "Главная" или "Контакты" и наложены были бы фильтры.

Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?

В каждом конкретном случае нужно смотреть выдачу, если сидят с уникальными текстами - есть вероятность, что по такому типу запроса нужен уникальный контент и наоборот. Берешь парсер выдачи, потом загоняешь полученные урлы в проверку уникальности и делаешь вывод.

Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?

В общем случае хватает стандартной, особенно, если необходимо простые тексты на категории магазина, к примеру, проверить. А если это аналитическая статья или лонгрид - то глубокая.

Честно говоря не совсем ясен вопрос.

То, что site: находится это значит, что проиндексировано основным роботом.

У вас стоит https://cse.google.ru/cse/ - и не находит, правильно?

1. Покупаешь прокси для Кейколлектора.

1 прокси, это +1 поток проверки.

Если у тебя 10 прокси, то это 11 потоков получения данных (+1 твой основной адрес)

2. Покупаешь на сервисе анти капч.

Т.к. автоматизированно обходятся капчи в несколько раз ускоряется сбор.

3. Не забывай про настройки сети - сейчас Яндекс позволяет при оптимальном кол-ве капч работать в режиме 15-30 сек.

Проверял пакетно 50 страниц по выдаче Яндекса.

Каким образом я могу поставить "на паузу" проверку уникальности?

Столкнулся с проблемой, что во время проверки сервис ********и целый час пытался пробить капчу яндекса и писал, что нет свободных работников.

Пошел в другой сервис и там получил api ключ, который не могу заменить в процессе проверки, пришлось останавливать полностью все проверки (1 статья недопроверилась), менять ключ для сервиса и другую ********у.

это никак не связано, если бы инфа из того, что украдено, была бы в сети - то однозначно под соусом - продаж или раздач. Нет ни того, ни другого.

Мне кажется, что это вообще был повод какие-нибудь внутренние изменения сделать, типо: разыграем вороство алгоритма для сеошников и под это дело быстренько выкатим десяток убивающих сео апдейтов

Все с целью увеличения прибыли в директе - многоходовочка.

Но это моя параноя)

Не закрывайте, посмотрите на эффект. Как только заметите снижение, пробегитесь и закройте, посмотрите эффект.

Profit :)

Yandex никогда никого не радовал, только свой карман.

теперь будут статьи: "Как попасть в ротацию молодому сайту"

Всего: 126