- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
LEOnidUKG, никак то никак, но ркн блочит свыше сотни сайтов в день. dmca высекает десятки тысяч стр. в день
LEOnidUKG, никак то никак, но ркн блочит свыше сотни сайтов в день. dmca высекает десятки тысяч стр. в день
При чём тут ТС и РКН? А ещё на Марс летаем. Тоже в тему.
В Яндекс метрики не указан его ip
ага, ну если в метрики ip не указан то конечно теперь никак не узнать :)
От ручного копирования может помочь скрипт, который переводит часть букв в словах из кириллицы в латиницу при копировании. Для человека текст читаемый, для поискового робота нет.
А на работу хоть время остается между наблюдениями? :)
А я на работе наблюдаю, ( сижу на окладе в Роснефти) а саит просто хобби.
---------- Добавлено 07.06.2019 в 17:22 ----------
От ручного копирования может помочь скрипт, который переводит часть букв в словах из кириллицы в латиницу при копировании. Для человека текст читаемый, для поискового робота нет.
https://seo-zona.ru/novyj-unikalnyj-metod-zashhity-teksta-ot-kopirovaniya-2017-02-15.html
Есть много способов защиты от копирования, но как показывает мой опыт, здесь все равно придется работать руками.
Как делаем мы:
1. Определяем копирует робот, или человек. Если робот, то блокируем, а лучше блокируем от всех роботов, кроме нужных.
2. Иногда при помощи скрипта скармливаем роботу абракадабру
3. Был интересный случай, когда заказчик попросил скормить роботам нелегальный контент, а именно призывы к суициду, продажа наркотиков. Мы написали скрипт, дали ему доступ, он уже сам кормил парсеров каким то контентом, а следом находил их в Гугле и подавал куда то жалобы. Я не уточнял что именно он кормил и куда жалобы подавал, но человек счастлив и до сих пор пользуется нашим скриптом.
Если копирует человек:
1. Для всех, кроме роботов Гугла, Яндекс и т.д. мы переводим часть контента в SVG картинки. То есть для человека остается два выхода:
а) перепечатывать каждую статью руками
б) сделать принт скрин и распознать текст
и тот и другой способы достаточно геморные
2. Вычисляем IP и другие параметры вора (не буду перечислять) и блокируем его
3. При смене IP вор легко вычисляется по поведению
4. Подменяем контент для определенного человека. То есть при заходе на ваш сайт он получает сгенерированный полутупой текст.
Отмечу, что каждый случай уникальный. Были разные случаи, но для 80% вебмастеров достаточно простой защиты от ботов.
ТС как вариант создайте скрытую категорию, кидайте туда материалы, а уж когда поисковики проиндексируют можно и на главную, пускай копирует)
forexjoker, с SVG картинками прикольно)
А как заблокировать от всех, сейчас боты могут маскироваться под обычных юзеров, подменяя юзерагент и т.д.
покажите урл, может и нам что пригодится скопировать 🍿
ТС как вариант создайте скрытую категорию, кидайте туда материалы, а уж когда поисковики проиндексируют можно и на главную, пускай копирует)
forexjoker, с SVG картинками прикольно)
А как заблокировать от всех, сейчас боты могут маскироваться под обычных юзеров, подменяя юзерагент и т.д.
От всех заблокироваться можно только анализируя активность и расставляя honeypots - ловушки. То есть мы создаем место, куда юзер не сможет зайти, а вот бот перейдет по невидимой ссылке. Или мы анализируем активность юзера, например, он загрузил сотню страниц за 2 секунды - это значит, что это бот. Для особо упрямых воришек мы просто делаем парсинг сайта убыточным делом. Ему каждый раз приходится дорабатывать код парсера, менять прокси и т д. Вообщем, спустя неделю - две человек просто переключается на другой сайт.
Обычно в таких случаях в суд подают. Статья о защите авторского права. Если у вас есть авторские материалы на сайте и они скопированы, то почему бы и нет.