- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
basf, успокойтесь уже. Все давно в курсе, что на 100% не защитишься - только от школоло. Нормальные грабберы от пользователя вообще не отличишь.
basf, этот большой текст под кайфом кто-то писал.
basf, успокойтесь уже. Все давно в курсе, что на 100% не защитишься - только от школоло. Нормальные грабберы от пользователя вообще не отличишь.
Отличаеются сверх высокой активностью как правило.
ну тут понаписали советов
бери вдс там в iptables прописывай правило много не смотреть и будет тебе счатье
ValdisRu, как правило достаточно правил в nginx. Ну а самых грозных конечно в iptables
ValdisRu, как правило достаточно правил в nginx. Ну а самых грозных конечно в iptables
хм, какое такое правило то?? можно конечно и в nginx, можно даже и на php написать защиту только не рационально это имхо, зачем пропускать заведомо ненужного клиента к nginx если его можно и нужно отфильтровать фаерволом???
Потому что на уровне nginx удобнее управлять этим, использовать вайт-листы и создавать разного рода лимиты. Хотел бы я посмотреть как вы на уровне фая будет создавать разные лимиты по каждому домену и отдельные на статику и динамику. На уровне фая вы создадите 1 лимит, который будет слишком жесткий для статики и слишком мягкий для обращений к php. И на одном IP вы не сможете создавать несколько правил по разными доменам.
парсеры js не умеют поэтому защитить не проблема.
Ни один граббер не пройдёт. Определение адреса ссылки по условию, передаваемому через параметр POST... Следующая php-страница может проверять параметр, передающийся через POST, и если он отличается от валидных, плеваться Error-ом 404!
Ага. А поисковый бот пойдет по такой конструкции, конечно...
В 99% защита не требуется. Не надо делать такие сайты, воровство контента с которых представляет критичную угрозу. Иначе это как выкинуть деньги на помойку и спрашивать "как защититься от воровства денег с помойки" 😂
1 же процент, - это если Вы владелец крупного новостного портала, портала с онлайн объявлениями вроде auto.ru или крупного сайта сериалов типа seasonvar.ru - где критично не само воровство, а то, что будут пасти свежие новости, новые серии и т.д. Но в этом случаи думаю разумнее спросить Вашего ведущего программиста, он точно знает как 😂