- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Имхо, единственный приемлемый технический вариант: почаще менять внутреннюю структуру сайта.
плохо отражается на поисковиках - яндекс очень задумчивый к этому
Про привязку к картинке это хорошая идея, самая здравая. А еще лучше выработать свой авторский стиль письма, узнаваемый, делать привязку к своему сайту или еще лучше перелинковывать свои статьи (подробнее о том, что такое "что-то" можно посмотреть в статье "Х")
И из таких перелинковок потом сам черт ногу сломит, реально просто сделать рерайт и не мучаться.
Но опять-таки - это работа требует больших усилий, чем просто написать текст. Поэтому не всем придется по душе.
А воровать - будут всегда. Вот идешь на улице, кто-то сорвал шапку и бежать. И убежит, если бегает быстрее. Также и в интернете - нужно учиться бегать быстрее копипастеров - и писать постоянно новые статьи, завоевывать авторитет и проблема отпадет сама собой - за вами будет не угнаться.
Про привязку к картинке это хорошая идея, самая здравая. А еще лучше выработать свой авторский стиль письма, узнаваемый, делать привязку к своему сайту или еще лучше перелинковывать свои статьи (подробнее о том, что такое "что-то" можно посмотреть в статье "Х")
И из таких перелинковок потом сам черт ногу сломит, реально просто сделать рерайт и не мучаться.
Но опять-таки - это работа требует больших усилий, чем просто написать текст. Поэтому не всем придется по душе.
А воровать - будут всегда. Вот идешь на улице, кто-то сорвал шапку и бежать. И убежит, если бегает быстрее. Также и в интернете - нужно учиться бегать быстрее копипастеров - и писать постоянно новые статьи, завоевывать авторитет и проблема отпадет сама собой - за вами будет не угнаться.
полность согласен
судя по названию топика тема актуальна :)
забанить все сетки Хостеров, по крайней мере известных. - там нет узеров, а вот всяких барсилок там у народа на дедикейтах пачками.
забанить все известные прокси.
а в зависимости от сайта иногда еще помогает бан лишних по GEOip
судя по названию топика тема актуальна :)
забанить все сетки Хостеров, по крайней мере известных. - там нет узеров, а вот всяких барсилок там у народа на дедикейтах пачками.
забанить все известные прокси.
а в зависимости от сайта иногда еще помогает бан лишних по GEOip
Может проще сайт вообще никому не показывать? :)
Регулярно шлю абузы хостерам на тему парсинга, основанием для претензии является то что в robots.txt запрещено индексирование (кроме списка поисковиков).
Никто не отозвался по поводу специальных сайтов по регистрации авторства,где сначала регистрируешь свой текст,а после уже выкладываешь на сайте.
для joomla вроде был мод, что правая кнопка мышки перехватывалась.. от граберов не спасет, а от человека - мб и поможет :)
Подделать user arent очень просто. Вот если бы поисковики давали диапазон своих айпишников, вот тогда была бы защита намного надежнее.
Да есть этот диапазон, просто по хосту определяется, тра-ля-ля.yandex.ru или googlebot.com. По крайней мере гугл и яндекс.
Скорее всего, есть небольшой процент запросов как эмуляция пользователя IE и т.п., для проверки клоакинга, но таких запросов мизер и они легко вписываются даже в самые жестокие правила фильров.
По этому направлению остается две проблемы: прокси и зомби. Собираем прокси(это не сложно, источников очень не много и стоит это не дорого), баним их. И если сайт достаточно большой, к примеру интернет-магазин, то оставшиеся прокси просто не успевают отработать весь сайт.
Со вторым все плохо - никакого спасу нет. Правда я сомневаюсь, что их хватит на всех желающих пограбить. Да и не занимаются ботоводы этим.
Т.е. отработать фильтрацию на своем сайте сложно, но можно.
Другое дело, что поисковики дают доступ к сохраненкам, поэтому все усилия в защите собственного сайта - пшик. Пока эта проблема не решится - смысла просто нет.
Извините что вмешиваюсь в спор гуру. Раньше для оффлайн(когдай дайлап был) просмотра сайтов пользовался грабилкой встроенной в один менеджер закачек. Так вот прочитав топик, решил её опробовать снова.
Недавно из интереса слил один ДСДЛ(контент полная копипаста).
Там не писалось дат публикации и прочего.
Сайт выкачался в html. Ничего скриптового. Порядка 2000 тысяч новостей.
Можно хоть щас на народ и вот вам статический ГС-СДЛ. =)
P.S. О чём я? Все попытки будут тщетный пока будут подобные грабилки. =)
P.F. Выход, либо оторвать программистам руки за то что они пишут подобное.🙅
Либо никогда не палить линки своих СДЛ на сёрче./Линк для эксперимента нашёлся в одной ветке на форуме чисто случайно./ :D
В первом случае членовредительство. Во втором случае элементарная безопасность. 🍾