Вопрос по уникальности текста

1 23
Присущ
На сайте с 06.01.2011
Offline
929
#21

Hikari, Обновлять надо, чтоб они соответствовали новым оценочным от пс или связи с изменениями открытиями и тп для уточнения и пополнения материала. А уникальность надо слать в трехбуквеном направлении, она не кому не нужна. Нужна новая интересная информация, или старая под новым углом, а не измененные шинглы.

Прототипы и юзабилити, чтоб продавал и в топ попал Анализ сложившихся бизнес моделей и поиска точек роста Директ — от 2500 р, включая бюджет на клики / Аудит РК до и после запуска — от 5000 р
sromanenko
На сайте с 20.10.2016
Offline
33
#22

Samsonwork, для пущей уверенности стоит делать проверку и на рерайт, и на копирайт. Таким образом, можно вывести среднюю уникальность.

S1
На сайте с 14.05.2014
Offline
33
#23
geum:
Уникальность текста - это не самая главная характеристика контента, тем более что уже скоро ничего уникального не будет так как все написано

+1

Причем, как мне кажется - через несколько лет поисковики начнут палить переписку с друг друга, конкуренция итак огромная - и в топ будут попадать только авторские тексты со смысловой уникальностью. И тогда интернет станет местом для профессионалов - имею ввиду врачей, инженеров и т д. И профессия копирайтера пейсателя канет в лету

KS
На сайте с 14.03.2010
Offline
74
#24

Не канет. Потому что средний врач или инженер косноязычен.

S1
На сайте с 14.05.2014
Offline
33
#25
KarSlon:
Не канет. Потому что средний врач или инженер косноязычен.

врач может и пишет не как писатель, но у него уникальные фото, уникальная информация - смысловая уникальность.

В книге Пиши сокращай - там же четко говориться о том, что нужны факты и знание темы, а у писателей их нет, вот и получается: что британские ученые уверены в том, что бананы увеличивают грудь. Почему мы не скажем - ведь мы не знаем 🤣

P
На сайте с 19.04.2017
Offline
1
#26
samsonwork:
Проверяя сайт (глубокой проверкой тхт плагиата) столкнулся с такой проблемой, как то год назад писал статью для людей, размер около 3000 слов, писал сам лично не рерайтил не одного сайта, на момент написания статья была 99% уникальна, сегодняшняя проверка показывает мне 55% уникальность и пару сайтов с совпадение 22% и 11%, открываю там просто копия моей статьи, и тут я въехал в пня!!!!

Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".
Вопрос 2 - как такое могло произойти что через год текст стал не уникальным?
Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи?
Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?
Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?

И небольшой совет:
Проверял еще один сайт, на некоторых статьях которые мне писали авторы, попалась уникальность по 60%, открыл сайты которые показал плагиат, там действительно просто скопированные куски текста, совершенно неисправленные, статью заказывал на тхт, зашел посмотрел архив, нашел эту статью тхт показывает 98% уникальность, щас ищу того автора, буду с ним разбираться. Внимательно проверяйте работу копирайтера, чтобы не схлопотать фильтр, кстати последнее время я действительно заметил падение позиций гугла, хотя под него хорошо оптимизировал сайт, буду доводить тексты и смотреть как изменяться позиции.

Проверяйте с помощью адвего плагиатус. поставьте самые жесткий настройки, и делайте глубокую проверку. В этом плане это самая сильная программа.

G
На сайте с 18.05.2017
Offline
2
#27
samsonwork:
Проверяя сайт (глубокой проверкой тхт плагиата) столкнулся с такой проблемой, как то год назад писал статью для людей, размер около 3000 слов, писал сам лично не рерайтил не одного сайта, на момент написания статья была 99% уникальна, сегодняшняя проверка показывает мне 55% уникальность и пару сайтов с совпадение 22% и 11%, открываю там просто копия моей статьи, и тут я въехал в пня!!!!

Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".
Вопрос 2 - как такое могло произойти что через год текст стал не уникальным?
Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи?
Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?
Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?

И небольшой совет:
Проверял еще один сайт, на некоторых статьях которые мне писали авторы, попалась уникальность по 60%, открыл сайты которые показал плагиат, там действительно просто скопированные куски текста, совершенно неисправленные, статью заказывал на тхт, зашел посмотрел архив, нашел эту статью тхт показывает 98% уникальность, щас ищу того автора, буду с ним разбираться. Внимательно проверяйте работу копирайтера, чтобы не схлопотать фильтр, кстати последнее время я действительно заметил падение позиций гугла, хотя под него хорошо оптимизировал сайт, буду доводить тексты и смотреть как изменяться позиции.

Ответ 1-2: Поисковик реагирует на так называемую "входящую" уникальность. Если вы разместили текст 18/05/2016 с уникальностью 95%, а 18/05/2017 он стал 70%, это означает что на других сайтах появились похожие статьи, написанные с тех же исходников, которые брались для вашей статьи. Или же конкретно ваша статья стала объектов всеобщего внимания.

Ответ 3: Плагиат сравнивает по шинглу. То есть если шингл 3, то он и будет сравнивать совпадения по трем подряд идущим словам, если 4 - по четырем соответственно. Ему без разницы кто там что писал или постил - это обычная компьютерная программа, и если кто-то неправильно составил алгоритм, то страдать от этого будет как вебмастер, так и копирайтер.

Ответ 4: Не нужно. Главное, чтобы на сайте регулярно появлялся свежий уникальный контент.

Ответ 5: Я проверяю по стандартной, заказчики всегда довольны. Глубокую и на рерайт обычно заказывают новички, у которых тухлые сайты с низкой посещаемостью. Думают, что произойдет чудо. Владельцы сайтов с высокой посещаемостью обычно заинтересованы в качественном материале, а не уникальности и точных вхождениях ключевых слов. Потому как если материал качественный, то Ваш сайт обязательно будут посещать, а если гавно - забудут навсегда!

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий