- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Kamchess, ну года 2 назад пошел я к нотариусу ...
а) Заверить-то он сможет (документ), но не интренет страничку.
б) Чтобы заверить информацию на сайте надо чтобы в штате нотариата был человек с дипломом, который опишет весь процесс проникновения на сайт, адрес сайта и пр.пр. техническим языком. Если этого не будет, дело в Вашем суде развалится. Если конечно суд вообще примет исковое.
в) Из 10 нотариусов только 1 готов разговаривать на тему заверения интернет документов.
Сложность заключается в том, что фактически нотариус несет личную ответственность за каждую копию, свидетельство, доверенность ... а проверить первичность возникновения авторского права он не может.
Есть патентное ведомство, но ждать свидетельство будете от 8 до 12 месяцев.
У нас статьи и фото воровали и будут воровать. Часто помогает письмо хостеру. А вообще надо все в комплексе ...
Есть и другие способы, например использование скриптов.
Какие-то сложные способы предлагаются, могу предложить изучение этой статьи. http://webmastak.com/article.aspx?id=25
А так же выделю основные моменты:
Начнем с самого простого — с запрета на кэширование страницы. Хоть это может показаться ненужным шагом для защиты, большинство специалистов по безопасности считают это первым шагом на пути к полноценной защите сайта от копирования. Для запрета на кэширование необходимо всего-навсего сделать на это указание в разделе <head>… </head>:
или:
<META HTTP-EQUIV="no-cache">
Следующим шагом будет собственно защита от копирования элементов страницы. Так, например, если необходимо защитить исключительно графические файлы, то можно обойтись следующим кодом:
В этом случае используются функции oncontextmenu и ondragstart, позаимствованные из JavaScript (оно и не мудрено, ведь JScript принят в Internet Explorer языком по умолчанию, что не требует обязательного указания атрибутов <script>). Скрипты от Java широко используется и для других функций защиты web-страниц, например для блокировки некоторых функций. Так, вы можете заблокировать функцию клика правой кнопкой мыши и известить пользователя об этих ограничениях специальным сообщением ( Рис. 1). Чтобы реализовать эту функцию, вам необходимо внести такой код в тело страницы, т.е. между тэгами <body>…</body> (текст выпадающего сообщения, конечно, вы можете изменить на свой вкус):
<!--
var mymessage = "Извините, но вы не можете просмотреть код страницы или скачать картинку.";
if (document.layers){
document.captureEvents(Event.MOUSEDOWN);
}
function rtclickcheck(keyp){
if (document.layers && keyp.which != 1) {
alert(mymessage);
return false;
}
if (document.all && event.button != 1) {
alert(mymessage);
return false;
}
}
document.onmousedown = rtclickcheck
//-->
</script>
Но не всегда есть необходимость уведомлять пользователя о запрете на копирование, достаточно просто ограничить эту функцию. Один из способов — внести в тэг <body> специальное сообщение:
а в тело самой страницы поместить скрипт с функцией:
function notmenu() { window.event.returnValue=false; }
</SCRIPT>
Но в этом случае все еще останутся доступными функции выделения текста и его копирования с помощью быстрых клавиш Ctrl+C. Если же надо запретить выделение, копирование и вызов контекстного меню, то в разделе <head> следует поместить следующий скрипт:
document.ondragstart = test;
//запрет на перетаскивание
document.onselectstart = test;
//запрет на выделение элементов страницы
document.oncontextmenu = test;
//запрет на выведение контекстного меню
function test() {
return false
}
</SCRIPT>
Все эти средства хороши лишь против нездоровой активности новичков, но не обеспечивают необходимой защиты сайту. Достаточно сохранить такую web-страницу на винчестере, а потом, открыв ее в блокноте, удалить указанный код, и уже потом использовать по своему усмотрению.
Добавлю от себя: когда человек будет пробовать копировать материалы и у него ничего не получится, то вряд ли он захочет продолжать попытки, просто уйдет искать контент на другой сайт.
Да бросьте Вы, в самом деле... Вы действительно думаете, что тексты копируют ручками? Те, кто не сможет отрубить джаваскрипт при первой неудаче копирования, не представляют угрозы копирования материала вовсе. Это примерно значит то, что даже если они и скопируют материал в свой говноблог, то наверняка он не составит конкуренции в выдаче с Вашим сайтом. Я думал, мы тут говорим о серьезных вещах (парсинге тысяч страниц), а не о баловстве со спичками.
Да бросьте Вы, в самом деле... Вы действительно думаете, что тексты копируют ручками? Те, кто не сможет отрубить джаваскрипт при первой неудаче копирования, не представляют угрозы копирования материала вовсе. Это примерно значит то, что даже если они и скопируют материал в свой говноблог, то наверняка он не составит конкуренции в выдаче с Вашим сайтом. Я думал, мы тут говорим о серьезных вещах (парсинге тысяч страниц), а не о баловстве со спичками.
Полностью с вами согласен, но ТС не уточнял с каким именно воровством имеет дело, поэтому предложенный мной вариант можно рассмотреть.
На счет парсинга - можно отрубить доступ по Ip этому хитрому парсеру, если не ошибаюсь.
Какие-то сложные способы предлагаются, могу предложить изучение этой статьи.
Ознакомился. Могу констатировать - изучать там нечего. Все эти скрипты отключаются исполнением скрипта через протокол javascript прямо из адресной строки браузера. К тому-же, статья явно написана не особо грамотным в этом деле человеком.
...
Реализовать этот способ шифрования можно как с помощью простенького скрипта на Java, так и с помощью php- и cgi-скриптов. Вот пример кода для шифрования страницы на JavaScript:
Полагать, что Java и JavaScript одно и тоже... мда... 😡
Если тырят через RSS, то я могу предложить решение, которым пользуюсь сам (читайте вариант №3). Всего 10-15 строк кода на PHP. Контент, который у Вас украдут, вообще будет в корне отличаться от Вашего (как ни парадоксально это звучит).
Если тырят через RSS, то я могу предложить решение, которым пользуюсь сам (читайте вариант №3). Всего 10-15 строк кода на PHP. Контент, который у Вас украдут, вообще будет в корне отличаться от Вашего (как ни парадоксально это звучит).
Не совсем удачный совет. Проблема в том, что статью тырят ДО ее индексации Я/Г/Y. После того как статья проиндексирована, то абсолютно все равно стырена она или нет. В лучшем случае получите ссылки на свой сайт, а в худшем (если статью уволок более трастовый сайт) тут ничего не поделаешь, первоисточником может оказаться он - надо делать свой сайт более трастовым (долго, сложно, но можно)!
На мой взгляд, единственно как можно защитить свой контент от "тыринга" это склейка доменов. После того как нужный контент проиндексирован - клейте его куда хотите! Хоть на лоб парсерам :)
SkyKiller, оригинальная и интересная идея. Теперь возникает вопрос - возьмут ли такой уникализированный текст яндекс- и рамблер-новостники?
Arhivator-007, можно подробнее? Нифига не понял как склейка доменов может защитить от плагиата.
было у меня такое, в начале написал платонам, они сказали "чтоподелать", потом написал на форум того портала куда выложили. того псевдоавтора сожрали его же посетители. в итоге со стыдом снял.
а вообще - индексироваться надо быстрее, чтоб никакая гадость перед тобой с твоим же контентом не стала.
с другой стороны - есть плюс! если ваши статьи воруют - радуйтесь! - вы хорошо пишите)