sadov

Рейтинг
1
Регистрация
11.04.2012
Pavel_:
ну сделайте ради экспериенса хотя бы с пару-тройку десятков - панель прикольно уже смотриццо? Эт для начала... ))

Вы делетантски рассуждаете, как будто мне вручную придется для каждого пользователя делать домен 3-го уровня. 😂

На таком принципе например построен livejournal или вот сайт попроще http://zakaz-rabot.ru/ - все зарегистрированные пользователи

имеют свой домен 3-го уровня, а их там более 10 000

И о какой панели Вы говорите? :)

:) Секс-поддержка - это хорошая идея!

А если серьезно -почему запутаюсь?

iGee:
Когда Вы делаете http://login.sitename.ru/blog/817/post/... ,то у вас получается не тысяча сайтов а 2. и этот второй.

В примере урла login означает логин одного пользователя, из которого формируется домен 3-го уровня.

Например при регистрации вы указываете гогин iGee и сайт формирует поддомен для вашего профиля http://igree.sitename.ru/.

Таким образом сколько пользователей, столько и доменов 3-го уровня, сотни, тысячи,....

Дело в том, что "владельцы" поддоменов получают свой мини сайт. На каждый поддомен можно поставить индивидуальный счетчик,

подключить вебмастер и владелец может самостоятельно продвигать свой поддомен. Таким образом владелец мотивирован размещать качественный контент,

следить за трафиком, управлять трафиком.

Вопрос в том, как на это смотрят поисковики, как это отразиться на всем сайте вцелом?

богоносец:
Подсказать, как закрыть от индексации?

Спасибо, я знаю. Мне нужен проиндексированный пользовательский контент. В том-то и загвоздка!

Жалко создавать механизмы для естественной генерации контента пользователями, мотивировать их, а потом закрывать от индексации. Я ищу решение, чтобы пользователь был заинтересован размещать уникальные тексты или найти способ максимально ему в этом помочь.

Конечно закрывать - это один из выходов, но я не знаю какой процент контента будет не уникальным.

Интересно есть ли статистика по этой теме? Все упирается в трудозатраты на такую модерацию.

Если % плагиатных текстов будет не более 10%, то это еще нормально, если больше, то надо считать рентабельность.

Так все таки есть ли порог наличия не уникального контента на сайте, чтобы не забанили?

---------- Добавлено 11.04.2012 в 16:25 ----------

Neamailer:
Поисковики оценивают контент сайта в ЦЕЛОМ.

Neamailer - Спасибо! Тоесть не стоит переживать, если доля контента на сайте с точными совпадениями будет не более 10%?

manca:
После такой модерации я бы на этот сайт не вернулся

manca, т.е. Вы обычно если размещаете текстовую информацию, то делаете это "copy" - "paste"? Думаю - нет, поэтому Вам уходить с такого сайта не придется.

Конечно правда в словах manca есть и мне бы тоже не понравился такой контроль, но только тогда, когда я тупо копирую текст с одного на другой сайт

Речь ведь не идет о тотальном запрете. Я ищу способ своебразного управления действиями пользователя.

Это может быть даже удобно, когда я использовал различные источники, составил текст и сайт где я размещаю готовую статью подсказывет мне уровень уникальности текста.

А как иначе?

Ручная модерация вас не оскорбит и вы будете продолжать пользоваться сайтом?

Спасибо!

Скажите, а кто нибудь встречал на сайтах механизмы активной проверки контента при его размещении пользователями? Т.е. при размещении текста сайт проверяет его на уникальность. Если текст уникальный или имеет допустимый процент совпадения, то размещается, если же порог совпадений зашкаливает, то пользователь предупреждается об этом и текст рекомендуется отредактировать.

Если в не уникальной статье будет указана ссылка на первоисточник, как поисковики к этому отнесуться и имеет зачение какой будет ссылка открытой или закрытой? Ведь контент после этого не станет уникальным и страница не попадет в индекс. А если таких страниц будет много?