- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Какая должна быть уникальность текста?
Имхо, уникальность текста должна быть в диапазоне 70-90%. Такой текст прекрасно индексируется и держится в индексе поисковиков. И примерно столько получается, если писать не заморачиваясь на уникальность*, используя распространенные обороты речи, технические термины, географические названия, цитаты, ссылаться на литературу. То есть писать грамотные статьи для людей, а не для ботов. Есть другие мнения?
Даже с точки зрения поисковых систем уникальность текста близкая к 100% может служить показателем искусственно сгенерированного контента, неважно, кто его генерирует - компьютер или человек. Есть некоторые средние значения, которых лучше придерживаться.
Однако на биржах контента часто требуют уникальность текста 95, а то и 100%. При этом тексты зачастую получаются корявыми, нечитабельными. Кому и зачем это нужно?
* Например этот текст - 100%-й копирайтинг, написанный "из головы", имеет уникальность 82% по плагиатусу. Более чем уверен, что поисковики его без проблем проиндексируют.
Даже с точки зрения поисковых систем уникальность текста близкая к 100% может служить показателем искусственно сгенерированного контента, неважно, кто его генерирует - компьютер или человек.
А откуда такая информация? Есть где-то ее подтверждение? Неплохо бы заказчикам давать ссылку. =)
Я свои тексты на уникальность не проверяю давно. Пишу как пишется, русский язык не насилую. При проверке получается от 95 процентов.
А откуда такая информация? Есть где-то ее подтверждение? Неплохо бы заказчикам давать ссылку. =)
"Может служить" — это предположение. Остальное факты. Я не утверждаю, что текст с уникальностью > 90% должен плохо индексироваться или вылетать из индекса по причине высокой уникальности. Но если на сайте множество страниц со 100%-ой уникальностью текста, то это как минимум подозрительно. И если эти тексты бессмысленные или нечитабельные (а высокая уникальность этому способствует), то их логично будет исключить из индекса. Качество текста гораздо важнее процентов уникальности.
Я свои тексты на уникальность не проверяю давно. Пишу как пишется, русский язык не насилую. При проверке получается от 95 процентов.
Навскидку
https://www.google.com/#q="А+откуда+такая+информация"
https://www.google.com/#q="Есть+где-то+ее"
https://www.google.com/#q="на+уникальность+не+проверяю"
Как-то далековато от 95% :)
Уникальность - это прекрасно. А как насчет новизны, полезности для посетителя? ИМХО, поисковики научились выкидывать уникальные, но бесполезные статьи.
Получаю из рассылок по несколько статей в месяц на тему тэгов в HTML. Есть просто литературные шедевры, но новизны - ноль.
Кстати, никто из графоманов не пишет, что многие атрибуты и даже тэги криво отображаются не только в старых версиях браузеров.
96,53 по адвего. И ни сотой частью больше/меньше.
Подтверждено британскими учеными.
Какая должна быть уникальность текста?
Имхо, уникальность текста должна быть в диапазоне 70-90%. Такой текст прекрасно индексируется и держится в индексе поисковиков. И примерно столько получается, если писать не заморачиваясь на уникальность*, используя распространенные обороты речи, технические термины, географические названия, цитаты, ссылаться на литературу. То есть писать грамотные статьи для людей, а не для ботов. Есть другие мнения?
Даже с точки зрения поисковых систем уникальность текста близкая к 100% может служить показателем искусственно сгенерированного контента, неважно, кто его генерирует - компьютер или человек. Есть некоторые средние значения, которых лучше придерживаться.
Однако на биржах контента часто требуют уникальность текста 95, а то и 100%. При этом тексты зачастую получаются корявыми, нечитабельными. Кому и зачем это нужно?
* Например этот текст - 100%-й копирайтинг, написанный "из головы", имеет уникальность 82% по плагиатусу. Более чем уверен, что поисковики его без проблем проиндексируют.
Если это текст рерайт то надо минимум 95%, а нормальный хороший копирайт он всегда 100% уникальности, чем больше тем лучше.
Я думаю, эти игры с поисковыми роботами рано или поздно закончатся. Человек придумывает все новые и новые комбинации, роботы их успешно фиксируют и используют против человека.
Многие владельцы ресурсов никак не хотят примириться с мыслью, что копируя в тысячный раз кем-то уже придуманный бизнес, не получится переманить на свою сторону посетителей. Все равно, что открыть закусочную и попытаться обойти "Макдональдс"
В погоне за уникальным контентом, владельцы ресурсов забывают про потенциального покупателя.
А потенциальный покупатель - человек очень простой. В отличие от поисковых роботов потенциальный покупатель не "прокачан" под новые формы привлечения . Он до сих пор пользуется старыми, веками отшлифованными критериями: нравится - не нравится.
Ну удастся заманить 100-процентным уником посетителя, а дальше-то что? Станет он что-то покупать? Станет кликать по рекламе? Станет переходить по ссылкам? С чего бы вдруг? Ведь он априори оказывается среди информации, которую ему подсовывают в милионный раз.
Мне эта ситуация чем-то напоминает книги Дарьи Донцовой. Миллионы знаков контента, а нового - ноль.
В современном мире больше все-таки выигрывают производители (создатели нового), а не перекупщики. Даже если на первых порах у перекупщиков доходы растут быстрее.
Вспомните, кем была компания "Самсунг" или "Голдстар" лет двадцать назад? Одни только названия заставляли недовольно морщиться. Какая-то Корея "третьего мира". Да еще на фоне немецких "Техниксов", "АйТиТи" и прочего. И все-таки Корея выстояла. Наверное потому, что конечной целью всегда была забота о потребителе.
Ух, наговорил... Одним словом, будь я владельцем интернет-ресурса, я избегал бы всяких рерайтов-копипастов. Контент - только копирайт. Стилистика и обороты, заточенные под нормального человека. Нормальный, человеческий язык. В первую очередь важно то, что я хочу сказать своим посетителям. А если в индексе я не на первом месте, так что ж поделаешь.
Мне возразят веб-мастера и СЕОшники. С их точки зрения посетитель играет абсолютно не приоритетную роль. Согласен. Благодаря современным возможностям достаточно, чтобы посетитель просто зашел в интернет, а дальше все начинает работать автоматически. Сателлиты, тизеры, кликандеры, дорвеи, тысяча их... С точки зрения веб-мастера и СЕОшника современные возможности - отличный инструмент для заработка.
Но это тоже закончится.
Так же, как закончилась уверенность изобретателей телевидения, что кино и театр исчезнут. Так же, как заканчивается эйфория от электронных книжек и общество окончательно определяется в предпочтениях - часть людей уверенно возвращается к бумажным изданиям. Так же, как закончился период споров, какая разметка лучше: "http", "php", "java"...
Никогда не заканчивается только одно - желание узнать что-то новое, жажда новой информации.
Поэтому человек, создающий текст всегда будет в более выигрышном положении перед человеком, перепродающим текст.
Если это текст рерайт то надо минимум 95%
Кому надо? Откуда вы эту цифру взяли?
Может отсюда http://lurkmore.to/95%25_%D0%BD%D0%B0%D1%81%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_%E2%80%94_%D0%B8%D0%B4%D0%B8%D0%BE%D1%82%D1%8B - 1 место в Гугл по запросу 95%, первоисточник видимо :)
а нормальный хороший копирайт он всегда 100% уникальности, чем больше тем лучше.
А почему не 146%? Любой грамотно написанный текст достаточной длинны имеет уникальность < 100%
Совсем недавно услышал интересную мысль по поводу уникальности контента - совсем необязательно, чтобы она составляла 95-100%, и к примеру если вы пишите статью то даже полезно когда в ней будут цитаты из Википедии, других авторитетных сайтов без изменения текстов.
Возьмем например научные статьи, как эталон качества технического текста. Статьи должны обладать научной новизной, то есть это копирайтинг. За плагиат научных работ в развитых странах снимают с самых высоких должностей. С другой стороны, научные статьи обязательно содержат неуникальный текст, как минимум список использованных источников, а также термины, цитаты и т.д.
Лал, литературные произведения уже сюда же вклинивают.
Помнится, был когда-то заказчик, потребовавший, чтобы в тексте не было фразеологизмов и прочих устойчивых выражений. Дескать, уникальность снижается.