Это я понимаю. Но меня устроит простое усложнение жизни парсера и удорожание услуг программиста. Те, кто действительно представляет проблему, не являются сами IT-специалистами, они будут нанимать программиста на каждое изменение парсера, а это деньги и время. Думаю, большинство из них забъет на регулярные парсинги и останется с тем вариантом, который успели спарсить ранее. Это меня также устроит.
Могу без проблем. Там десятки тысяч страниц. Пока подумываю над вариантом небольших изменений верстки в зависимости от содержимого страницы, например от объема или еще чего-нибудь. Т.е. некоторые страницы будут отличаться версткой.
Или просто буду периодически (раз в несколько месяцев) менять верстку, так как не дело, что они и верстку блоков один в один копируют - поисковики этого не любят.
Подчеркну - воровство самого по себе контента меня мало волнует, проблема в том, что они копируют всё до малейших деталей, включая структуру информации и стили.
rereg, нет, по поисковым роботам я фильтровать не хочу, т.к. любая ошибка будет сильно критичной.
Но у меня не стоит задача полностью запрещать парсинг, мне достаточно лишь усложнить его, но усложнить осторожно, не навредя сайту. Инфа там структурированная, поэтому при парсинге имеет значение как блоки вычленять. Также информация такого рода, что недопустимы искажения. И информация периодически обновляется, поэтому парсят ее также периодически.
В общем если у копипастеров возникнет регулярно постоянно обращаться к программисту для перенастройки парсера, это меня устроит.
Или вообще не дергаться? У меня сейчас по посещаемости и всем прочим параметрам 4-100 кратное преимущество.
Это как раз нормально. Я вообще в своем последнем проекте тратил пару-тройку дней и несколько сотен долларов на ОДНУ статью (конечно не все статьи такие). Зато через несколько месяцев в топе по высоконкурентной тематике.
Если нужно много страниц, то надо думать над самонаполняющимися системами и/или сервисами. Копирайтерные статьи в большинстве случаев - имхо деньги на ветер.
По своему опыту скажу. Мне вообще никакие копирайтеры не подходят (за редким исключением). Причем чем копирайтер профессиональней, тем меньше подходит. Не читает никто эту воду, пусть и трижды грамотно и красиво написанную. Пустое это всё.
Это если нормальный проект. Если же надо сделать сайтик на продажу, заполнив его по быстрому набором статей, то в этом случае копирайтеры конечно полезны.
[название_компании] - случайно не является одновременно и торговым знаком?
В целом если с вашей стороны нет недобросовестной конкуренции, вы не оказываете услуги и не производите товары аналогичные услугам и товарам этой компании, или вообще ничего не производите и услуг не оказываете, то я не вижу, к чему они могут прицепиться.
А этого никто не знает. У юристов разные мнения на этот счет.
С одной стороны идентифицировать человека по этим данным можно, но с другой стороны - не на 100%, а с третьей стороны - нельзя вообще быть уверенным, что это не левые данные (проверки то по паспорту нет, поэтому по сути в эти поля могут быть введены любые данные любым человеком).
Т.е. даже если человек вводит в поля паспортные данные, то это совершенно не значит, что это его паспортные данные. Не даром же платежные системы проводят идентификацию личности тем или иным способом.
favorit345, домен то как от этой компании ушел? Они забыли продлить? Или?
Посмотрите даты в истории изменений.
Если нет жульничества с уводом домена и если в домене нет никаких торговых знаков, то имхо не смогут отобрать.
favorit345, чем они аргументируют? Если доменное имя схоже с их товарным знаком, то могут и отобрать. Также могут быть проблемы, если вы восстановили из вебархива их контент.
Например, Василий Петрович Иванов - это кто? Разъясните плиз методику однозначной идентификации человека только по ФИО.
rSteLlMi, Главное, не использовать прямо или косвенно брэнд по отношению к товарам других брэндов.