Сдирают статьи

GL
На сайте с 19.10.2006
Offline
83
#51

У меня вообще содрали весь сайт и он вообще вылетел из индекса, пока контент не поменял-))) Да еще и доменно имя почти такое же, только через тире и телефон другой! Бороться письмами бесполезно...

Вот... 3 место оригинал, 5 - копия-))

http://www.yandex.ru/yandsearch?stype=&nl=0&text=%EA%EE%F2%F2%E5%E4%E6+%ED%E0+%F1%F3%F2%EA%E8

d&d
На сайте с 07.12.2006
Offline
56
d&d
#52

да уж.... печально!

Я, если и беру статьи, то всегда сначала читаю условия размещения статей. И даже, если такой ссылки на сайте автора нет, то ставлю прямую ссылку на него.

Честно говоря, я был на 100% уверен, что в выдаче приоритет имеет первоисточник.

Очень меня расстроило то, что это не так. 🙅

Sensey
На сайте с 27.07.2006
Offline
43
#53
d&d:
Честно говоря, я был на 100% уверен, что в выдаче приоритет имеет первоисточник.
Очень меня расстроило то, что это не так. 🙅

Да уж, жизнь - жестокая штука...

А как яндексу точно определить первоисточник?

Вот допустим я разместил статью на сайте, а ее какой-то умелец сразу же "унес" и разместил у себя. Тут как раз на его сайте пробегал робот яндекса и проиндексировал страницу, а на моем сайте увидел ту же статью немного позже...

Sensey
На сайте с 27.07.2006
Offline
43
#54

Часто задумываюсь над вопросом защиты своего контента от парсеров (не учитываю в данном вопросе ручную "копи - паст"). Идеи были очень разные, но все равно приходил к выводу, что если захотят украсть, то ничего не остановит...

Вот на днях возникла еще идея (не реализовывал пока).

Каждый парсер пишется конкретно под определенный сайт (по крайней мере подстраивают под нужное), робот ходит и парсит по заданной структуре.

А если сделать страницам, которые нужно защищать несколько вариантов структур, т.е. можно страницу сверстать разными вариантами, что бы визуально изменений небыло, поставить что бы версии в автоматическом режиме менялись (несколько раз в сутки). Робот будет парсить нормально, потом меняется структура и робот начинает вытягивать инфу совсем по корявому...

Ваше мнение господа.

Alex Vollmond
На сайте с 10.11.2006
Offline
7
#55

Единственная защита от воровства контента,

это юридическое и уголовное преследование,

и взымание ущерба с пиратов.

HTML код страницы нельзя спрятать ни каким образом

разве, что не выкладывать в сеть.

(я вскрываю любую защиту кода, за 3 минуты),

Я ♥ Google Обращаюсь к кидалам — мой паяльник очень горячий, утюг тоже.
Sensey
На сайте с 27.07.2006
Offline
43
#56
Alex Vollmond:

HTML код страницы нельзя спрятать ни каким образом
разве, что не выкладывать в сеть.
(я вскрываю любую защиту кода, за 3 минуты),

Я не говорил о том что бы прятать код. Насчет вскрытия за 3 минуты в данном случае тоже не касается, т.е. грубо говоря закрывать ничего не собирался.

Я написал вариант подставы роботу по разному сформированную инфу, т.е. если контент сдирается полностью в автоматическом режиме, то при изменении блоков на сайте, паук уже будет забирать себе инфу не в правильном порядке.

I
На сайте с 24.01.2007
Offline
79
#57
А если сделать страницам, которые нужно защищать несколько вариантов структур, т.е. можно страницу сверстать разными вариантами, что бы визуально изменений небыло, поставить что бы версии в автоматическом режиме менялись (несколько раз в сутки). Робот будет парсить нормально, потом меняется структура и робот начинает вытягивать инфу совсем по корявому...

Идея не плоха.

От автоматического сграбливания сайта вполне пойдет, но это если парсер писал ленивый программер если структура сайта сменилась то парсер не должен ничего писать в базу.(можно ведь и сравнить предыдущую и текущую)

Вроде как напряжно делать несколько структур.

А все эти запреты на копирование,сохранение,печать это не серьезно.

Хороший хостинг (http://www.timeweb.ru/)
Bor-ka
На сайте с 16.11.2004
Offline
201
#58
bimcom:
Вот более экзотический метод - проверяем сколько за последнюю минуту с 1го ИП было запрошено страниц без рефера site.ru если >30 то баним ИП на сутки, если такое повторяется несколько раз баним навсегда, может кто реализует?

а кто мешает рефер поддерлать или прикинуться I-ботом. ведь все это элементарно реализуется. а всякие запрещения правой кнопки - вообще детский лепет, Вы еще больше попортите жизнь простым юзерам.

ИМХО - защититься технически нельзя. Есть такие вещи - как скрытый оговореный текст, который имеется в тексте и опубликован. Но тогда решенеи проблем - только через суд.

Сервис полуавтоматического рерайта текста (http://topwriter.ru/)
Moony
На сайте с 02.07.2005
Offline
64
#59

Действенный метод защиты контента (один из немногих, а может и единственный) - обратиться к хостеру, у которого хостится ворующий контент сайт. Обычно они откликаются на просьбу и делают сайту предупреждение или даже блокируют его до удаления украденного контента.

T
На сайте с 27.06.2006
Offline
179
#60
Moony:
Действенный метод защиты контента (один из немногих, а может и единственный) - обратиться к хостеру, у которого хостится ворующий контент сайт. Обычно они откликаются на просьбу и делают сайту предупреждение или даже блокируют его до удаления украденного контента.

Гнать таких хостеров нужно в три шеи.

ps. не в защиту сливателей контента будет сказано.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий