Защита от копирования материалов

_wind_
На сайте с 24.07.2006
Offline
110
#11
artyes:
Интересует вопрос,
знаю что поисковики не любят когда одинаковые тексты лежат на разных сайтах.
Какие могут быть санкции? Я слышал, что в таких случаях они плохо ранжируют, или даже ставят сайты на последние позиции. Так ли это?

Если одинаковые материалы, действительно вредны для сайта, и влияют на выдачу в поиске.
как сделать так, чтобы копирование материалов стало не возможным, невыгодным для копирщиков, или возможно чтобы это было наказуемо?

Думаю нужно просто сервис сделать и закреплять текст за автором при первой публикации с возможностью оценки текста другими авторами/юзверами.

Тогда автор - плагиатор будет "осужден" народом в виде понижения его "репы" 🚬

А нормальный автор получит престиж и уважение в интернет сообществе.

P.S. Сори, если палю чью-либо тему :)

Сдать/снять квартиру без посредников (http://to-rent.ru), Доход для вебмастера (http://www.sape.ru/r.1cc08e9f90.php), Продам WMZ/WMR за телебанк с доплатой 1%
DG
На сайте с 18.02.2007
Offline
65
#12
MoMM:
как вы себе это представляете технически? размещать на сайте, а Я. скармливать прямой урл статьи через ссылки?

Как раз технически это возможно. Навскидку:

1. Статьи лежат в базе данных, одно из полей таблицы - "IsIndexed", по умолчанию - False.

2. Статьи доступны через список оглавлений, который формируется динамически.

3. При формировании списка проверяется UserAgent, ip, что-нибудь еще, позволяющее идентифицировать пользователя как бота Яндекса.

4. Если пришел Яндекс, добавляем в список все статьи, если обычный пользователь - только уже проиндексированные.

5. Убеждаемся, что Яндекс скушал не только список, но и саму статью и устанавливаем флаг IsIndexed в True.

Где-то так. Не знаю только, не будет ли такое поведение сайта считаться клоакингом.

I
На сайте с 20.11.2006
Offline
108
#13
Denis Gorby:
Не знаю только, не будет ли такое поведение сайта считаться клоакингом.

А чем это еще может считаться? :-) Это клоакинг и есть по определению. Пусть и с благими намерениями..

MoMM
На сайте с 16.06.2006
Offline
727
#14
Denis Gorby:
Не знаю только, не будет ли такое поведение сайта считаться клоакингом.

будет.

10 клоакингов

Hopeless
На сайте с 15.09.2007
Offline
73
#15

От людей контент не защитить, это понятно. А можно ли защититься от грабберов?

A
На сайте с 19.12.2007
Offline
29
#16

SEOSPIDER

Итак -

поисковик никак не может регулировать копирования материала, и знать кто является настоящим владельцем текста...

Не существует никак мер защиты текста.

Никто не может защитить текст от копирования.

Значит-

какой смысл создавать уникальные тексты.

Если скорее всего в какой то момент они будут украдены,

защититься или удалить их с сайта на котором они размещаются никто не сможет,

и поисковки если захочет может забанить оба сайта или даже тот, на котором текст был взят изначально.

В чем смысл авторства????

A
На сайте с 19.12.2007
Offline
29
#17

Ну так что, кто ответит в чем смысл оригинальных текстов???

J
На сайте с 12.07.2007
Offline
3
#18
artyes:
Ну так что, кто ответит в чем смысл оригинальных текстов???

Тут вопрос в другом, а для чего вам вообще нужны тексты, для поисковика или для аудитории вашего сайта? И для чего делается сайт, какие мотивы?

A
На сайте с 19.12.2007
Offline
29
#19
Jeket:
Тут вопрос в другом, а для чего вам вообще нужны тексты, для поисковика или для аудитории вашего сайта? И для чего делается сайт, какие мотивы?

Одно другому не мешает,

сайт делается для людей, а чтобы его находили он делается для поисковика.

Но смысл в оригинальных текстах все равно не вижу,

кто нибудь может ответить по моему пред. сообщению?

С
На сайте с 21.12.2007
Offline
49
#20

Как говорит сам Яндекс, он всеголишь зеркало Рунета.

ИМХО этим они только пытаются замаскировать свою неспособность (может их разработчикам мозгов нехватает...) определять первоисточник.

В принципе хоть какое то подобие определение первоисточника не так сложно реализовать с их мощностями, например по той же дате индексации, при индексации тексты с датой индексации присваиваются определенному урлу (сайту) и хранятся в отдельной базе не зависимой с их базой на которой строится выдача (типа постоянно обновляемого архива), ну и обновляется постоянно, в этом случае даже если сайт выпадает на время, и контент воруют с него, по его возвращению можно будет определить что этот сайт первоисточник, и соответственно выкинуть остальные сайты-воры из выдачи.

Не претендую на истину, но как вариант :)

Качественные ссылки с трастовых сайтов - навсегда! (http://miralinks.ru/users/registration/from:13484)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий