Вопрос по уникальности текста

12 3
samsonwork
На сайте с 30.08.2016
Offline
43
9575

Проверяя сайт (глубокой проверкой тхт плагиата) столкнулся с такой проблемой, как то год назад писал статью для людей, размер около 3000 слов, писал сам лично не рерайтил не одного сайта, на момент написания статья была 99% уникальна, сегодняшняя проверка показывает мне 55% уникальность и пару сайтов с совпадение 22% и 11%, открываю там просто копия моей статьи, и тут я въехал в пня!!!!

Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".

Вопрос 2 - как такое могло произойти что через год текст стал не уникальным?

Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи?

Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?

Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?

И небольшой совет:

Проверял еще один сайт, на некоторых статьях которые мне писали авторы, попалась уникальность по 60%, открыл сайты которые показал плагиат, там действительно просто скопированные куски текста, совершенно неисправленные, статью заказывал на тхт, зашел посмотрел архив, нашел эту статью тхт показывает 98% уникальность, щас ищу того автора, буду с ним разбираться. Внимательно проверяйте работу копирайтера, чтобы не схлопотать фильтр, кстати последнее время я действительно заметил падение позиций гугла, хотя под него хорошо оптимизировал сайт, буду доводить тексты и смотреть как изменяться позиции.

Onecontent
На сайте с 02.05.2016
Offline
82
#1

1. Ни разу не ловил фильтр с порогом уникальности в 80+%

2. А как ему оставаться уникальным на протяжении многих месяцев/лет? Вы написали текст, я его переписал, при этом часть пересечений уже есть. После меня еще 50 человек переписали. На общем фоне от вашей уникальности остались пустяки. Вот примерно так и происходит. Контент периодически нужно обновлять.

3. Робот поисковика смотрит код точно так же.

4. Да, нужно. Все тексты рано или поздно необходимо "освежать".

5. Ваши личные предпочтения. Я использую стандартные проверки.

Создание и продвижение сайтов в Самаре ( https://onecontent.ru ) Автоаксессуары и тюнинг в Красноярске ( https://carbonado24.com )
leoni_d
На сайте с 12.04.2008
Offline
70
#2

Вопрос 4 - Ответ: Если на сайте есть комментарии под каждой статьей и статьи ваши комментируются живыми людьми то можно и не обновлять тексты статей проверенно работает на ура. Только модерацию нужно делать в ручную и комментарии должны быть по смыслу текста в статье.

LD
На сайте с 29.08.2016
Offline
0
#3
samsonwork:

Проверял еще один сайт, на некоторых статьях которые мне писали авторы, попалась уникальность по 60%, открыл сайты которые показал плагиат, там действительно просто скопированные куски текста, совершенно неисправленные, статью заказывал на тхт, зашел посмотрел архив, нашел эту статью тхт показывает 98% уникальность, щас ищу того автора, буду с ним разбираться. Внимательно проверяйте работу копирайтера, чтобы не схлопотать фильтр.

Не вполне ясно, в чём вина автора, если статью потом кто-то отрерайтил?

samsonwork
На сайте с 30.08.2016
Offline
43
#4

В итоге я выяснил следущее:

Ведь статью я размещал год назад, за это время ее отрерайтили, теперь при проверки текса в етхт я указываю, исключить мой домен при проверки, и соответственно он показывает тех кто уже скопировал, тоесть я так понимаю через такое время уже не как не проверишь ее на уникальность, и очень странно что те кто скопировал у меня, етхт их выдает как уникальные и вообще делает сравнение сними, при чем у них без малейшего изменения хоть одного слова, просто копипаст, и тут возникает много вопросов..

bruder
На сайте с 03.02.2015
Offline
199
#5
samsonwork:
Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".

% - бред. Реагирует довольно рандомно. Гуглу так вообще по большей части плевать на уникальность. Фильтры, если нет вопиющих косяков, ставят ассессоры, если вдруг удосужат своим вниманием какой-то ГС.

Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?

Позиции упали?

последнее время я действительно заметил падение позиций гугла, хотя под него хорошо оптимизировал сайт

Всмысле хорошо покричал "панда ко мне"? :)

D4
На сайте с 06.08.2016
Offline
34
#6

Если писали около года назад, понятно что ее давно отрерайтили. Просто немного обновите статью, а вообще это ни на что не влияет.

dan-pro
На сайте с 11.02.2012
Offline
55
#7

Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".

В качестве примера по одному из коммерческих запросов:

Т.е. в каждом конкретном случае надо смотреть выдачу по запросам.

Вопрос 2 - как такое могло произойти что через год текст стал не уникальным?
Все как обычно, парсеры, дорвеи, саттелиты, курсовые, рефераты и т.п. - все воруют у всех;

Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи?

Это не учитывает, в одном из видео Яндекса они говорили, что используют обучаемые алгоритмы распознавания типов сайтов. Где-то валялся документ, в котором Яндекс описывает то, как он определял тип сайта форум/блог/статейник портал/новостник. Теоритически не должен ничего за это делать, иначе у всех был бы переспам по слову "Главная" или "Контакты" и наложены были бы фильтры.

Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?

В каждом конкретном случае нужно смотреть выдачу, если сидят с уникальными текстами - есть вероятность, что по такому типу запроса нужен уникальный контент и наоборот. Берешь парсер выдачи, потом загоняешь полученные урлы в проверку уникальности и делаешь вывод.

Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?

В общем случае хватает стандартной, особенно, если необходимо простые тексты на категории магазина, к примеру, проверить. А если это аналитическая статья или лонгрид - то глубокая.

G
На сайте с 02.04.2015
Offline
35
#8

Уникальность текста - это не самая главная характеристика контента, тем более что уже скоро ничего уникального не будет так как все написано

A1
На сайте с 23.11.2011
Online
131
#9

Есть сайты со 100% копипастом и никакие АГСы они не ловят. Тысячи уников в сутки из поисковиков

River
На сайте с 25.02.2011
Offline
135
#10

Чтобы не создавать новую тему спрошу тут:

подскажите как проверять уникальность текстов при размножении?

Например, надо сегодня надо написать 10 текстов на одну тему.

Как определить степень схожести/уникальности этих новых текстов?

Записки дегустатора напитков (http://www.beerblogger.ru) +18 Bq-Recovery манипуляция ценами ( /ru/forum/1017253)
12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий