- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Проверяя сайт (глубокой проверкой тхт плагиата) столкнулся с такой проблемой, как то год назад писал статью для людей, размер около 3000 слов, писал сам лично не рерайтил не одного сайта, на момент написания статья была 99% уникальна, сегодняшняя проверка показывает мне 55% уникальность и пару сайтов с совпадение 22% и 11%, открываю там просто копия моей статьи, и тут я въехал в пня!!!!
Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".
Вопрос 2 - как такое могло произойти что через год текст стал не уникальным?
Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи?
Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?
Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?
И небольшой совет:
Проверял еще один сайт, на некоторых статьях которые мне писали авторы, попалась уникальность по 60%, открыл сайты которые показал плагиат, там действительно просто скопированные куски текста, совершенно неисправленные, статью заказывал на тхт, зашел посмотрел архив, нашел эту статью тхт показывает 98% уникальность, щас ищу того автора, буду с ним разбираться. Внимательно проверяйте работу копирайтера, чтобы не схлопотать фильтр, кстати последнее время я действительно заметил падение позиций гугла, хотя под него хорошо оптимизировал сайт, буду доводить тексты и смотреть как изменяться позиции.
1. Ни разу не ловил фильтр с порогом уникальности в 80+%
2. А как ему оставаться уникальным на протяжении многих месяцев/лет? Вы написали текст, я его переписал, при этом часть пересечений уже есть. После меня еще 50 человек переписали. На общем фоне от вашей уникальности остались пустяки. Вот примерно так и происходит. Контент периодически нужно обновлять.
3. Робот поисковика смотрит код точно так же.
4. Да, нужно. Все тексты рано или поздно необходимо "освежать".
5. Ваши личные предпочтения. Я использую стандартные проверки.
Вопрос 4 - Ответ: Если на сайте есть комментарии под каждой статьей и статьи ваши комментируются живыми людьми то можно и не обновлять тексты статей проверенно работает на ура. Только модерацию нужно делать в ручную и комментарии должны быть по смыслу текста в статье.
Проверял еще один сайт, на некоторых статьях которые мне писали авторы, попалась уникальность по 60%, открыл сайты которые показал плагиат, там действительно просто скопированные куски текста, совершенно неисправленные, статью заказывал на тхт, зашел посмотрел архив, нашел эту статью тхт показывает 98% уникальность, щас ищу того автора, буду с ним разбираться. Внимательно проверяйте работу копирайтера, чтобы не схлопотать фильтр.
Не вполне ясно, в чём вина автора, если статью потом кто-то отрерайтил?
В итоге я выяснил следущее:
Ведь статью я размещал год назад, за это время ее отрерайтили, теперь при проверки текса в етхт я указываю, исключить мой домен при проверки, и соответственно он показывает тех кто уже скопировал, тоесть я так понимаю через такое время уже не как не проверишь ее на уникальность, и очень странно что те кто скопировал у меня, етхт их выдает как уникальные и вообще делает сравнение сними, при чем у них без малейшего изменения хоть одного слова, просто копипаст, и тут возникает много вопросов..
Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".
% - бред. Реагирует довольно рандомно. Гуглу так вообще по большей части плевать на уникальность. Фильтры, если нет вопиющих косяков, ставят ассессоры, если вдруг удосужат своим вниманием какой-то ГС.
Позиции упали?
Всмысле хорошо покричал "панда ко мне"? :)
Если писали около года назад, понятно что ее давно отрерайтили. Просто немного обновите статью, а вообще это ни на что не влияет.
Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".
В качестве примера по одному из коммерческих запросов:
Т.е. в каждом конкретном случае надо смотреть выдачу по запросам.
Вопрос 2 - как такое могло произойти что через год текст стал не уникальным?
Все как обычно, парсеры, дорвеи, саттелиты, курсовые, рефераты и т.п. - все воруют у всех;
Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи?
Это не учитывает, в одном из видео Яндекса они говорили, что используют обучаемые алгоритмы распознавания типов сайтов. Где-то валялся документ, в котором Яндекс описывает то, как он определял тип сайта форум/блог/статейник портал/новостник. Теоритически не должен ничего за это делать, иначе у всех был бы переспам по слову "Главная" или "Контакты" и наложены были бы фильтры.
Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной?
В каждом конкретном случае нужно смотреть выдачу, если сидят с уникальными текстами - есть вероятность, что по такому типу запроса нужен уникальный контент и наоборот. Берешь парсер выдачи, потом загоняешь полученные урлы в проверку уникальности и делаешь вывод.
Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?
В общем случае хватает стандартной, особенно, если необходимо простые тексты на категории магазина, к примеру, проверить. А если это аналитическая статья или лонгрид - то глубокая.
Уникальность текста - это не самая главная характеристика контента, тем более что уже скоро ничего уникального не будет так как все написано
Есть сайты со 100% копипастом и никакие АГСы они не ловят. Тысячи уников в сутки из поисковиков
Чтобы не создавать новую тему спрошу тут:
подскажите как проверять уникальность текстов при размножении?
Например, надо сегодня надо написать 10 текстов на одну тему.
Как определить степень схожести/уникальности этих новых текстов?