- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите пожалуйста, поделитесь опытом?
Сейчас проектирую сайт строительной тематики в механизм которого будет заложена идея наполнения контента в том числе и самими
пользователями - советы, фоторепортажи с описанием выполненных работ, ответы специалистов на вопросы и др.
Мотивация пользователей будет устроена так, что они будут заинтересованы писать как можно больше.
И тут самая главная засада - НЕ Уникальный контент!!!
Понятно, что поисковики без восторга отнесутся к сайту с плагиатным контентом.
Если организовать премодерацию или оперативную постмодерацию, то как объяснить дяде Васе штукатуру,
что при ответе на вопрос ему нельзя было пользоваться другими источниками в интернете, пусть это даже его страничка на другом сайте,
где он отвечал на такой же вопрос год назад. Получается, что с одной стороны мотивитуем на размещение контента,
с другой наш модератор тут же вынужден блокировать такой контент. Это не есть - гуд!
Какое решение можно найти в такой ситуации?
Есть ли какой нибудь допустимый предел наличия не уникального контента, при котором поискивики не забанят сайт?
Может быть есть решения встроить на сайте автоматическую проверку контента в момент его размещения пользователем?
Стоит ли вообще заморачиваться на эту тему?
Заранее спасибо!
Пропишите в правилах размещения материалов "Обязательно указывайте прямую ссылку на публикацию с первоисточника", сами же при модерации проверяйте на уникальность, если контент неуникален и отсутствует ссылка Отклоняйте
Если в не уникальной статье будет указана ссылка на первоисточник, как поисковики к этому отнесуться и имеет зачение какой будет ссылка открытой или закрытой? Ведь контент после этого не станет уникальным и страница не попадет в индекс. А если таких страниц будет много?
Если в не уникальной статье будет указана ссылка на первоисточник, как поисковики к этому отнесуться и имеет зачение какой будет ссылка открытой или закрытой? Ведь контент после этого не станет уникальным и страница не попадет в индекс. А если таких страниц будет много?
Поисковики отнесутся примерно так же, как если бы ссылки не было. Факт установки ссылки на источник - это как мера для того, чтобы в случае проблем с авторским правом можно было отмазаться "у меня ссылка на первоисточник" (хотя это вопрос спорный, лучше к спецам по авторскому праву обратиться).
Как бороться с неуником уже написали - отправлять все новые материалы сначала на модерацию, а потом уже, если статья подходит (например, проверена на уникальность через Адвего или ETXT) - публиковать.
Не забывайте, что ссылка на первоисточник не панацея. Бывает, что помимо ссылки авторы просят согласовывать с ними копирование и размещение контента.
Спасибо!
Скажите, а кто нибудь встречал на сайтах механизмы активной проверки контента при его размещении пользователями? Т.е. при размещении текста сайт проверяет его на уникальность. Если текст уникальный или имеет допустимый процент совпадения, то размещается, если же порог совпадений зашкаливает, то пользователь предупреждается об этом и текст рекомендуется отредактировать.
После такой модерации я бы на этот сайт не вернулся
После такой модерации я бы на этот сайт не вернулся
manca, т.е. Вы обычно если размещаете текстовую информацию, то делаете это "copy" - "paste"? Думаю - нет, поэтому Вам уходить с такого сайта не придется.
Конечно правда в словах manca есть и мне бы тоже не понравился такой контроль, но только тогда, когда я тупо копирую текст с одного на другой сайт
Речь ведь не идет о тотальном запрете. Я ищу способ своебразного управления действиями пользователя.
Это может быть даже удобно, когда я использовал различные источники, составил текст и сайт где я размещаю готовую статью подсказывет мне уровень уникальности текста.
А как иначе?
Ручная модерация вас не оскорбит и вы будете продолжать пользоваться сайтом?
будет заложена идея наполнения контента в том числе и самими пользователями - советы, фоторепортажи с описанием выполненных работ
Подсказать, как закрыть от индексации?
Поисковики оценивают контент сайта в ЦЕЛОМ. Одно дело, если вы скопировали тексты чужого сайта 1:1. Другое дело, если ваши пользователи из разных источников, то бишь сайтов, будут постить на вашем сайте куски текстов из Инета. Да это будут неуникальные куски текста. Но в целом ваш сайт не пострадает, так как в совокупности эти неуникальные куски текста составят новую уникальность. Если уж точно сформулировать это будет перемешанный копипаст из сети. А он рулит в поисковиках точно также как и самый самый настоящий уник. :)
Подсказать, как закрыть от индексации?
Спасибо, я знаю. Мне нужен проиндексированный пользовательский контент. В том-то и загвоздка!
Жалко создавать механизмы для естественной генерации контента пользователями, мотивировать их, а потом закрывать от индексации. Я ищу решение, чтобы пользователь был заинтересован размещать уникальные тексты или найти способ максимально ему в этом помочь.
Конечно закрывать - это один из выходов, но я не знаю какой процент контента будет не уникальным.
Интересно есть ли статистика по этой теме? Все упирается в трудозатраты на такую модерацию.
Если % плагиатных текстов будет не более 10%, то это еще нормально, если больше, то надо считать рентабельность.
Так все таки есть ли порог наличия не уникального контента на сайте, чтобы не забанили?
---------- Добавлено 11.04.2012 в 16:25 ----------
Поисковики оценивают контент сайта в ЦЕЛОМ.
Neamailer - Спасибо! Тоесть не стоит переживать, если доля контента на сайте с точными совпадениями будет не более 10%?