- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не человек тупой, просто парсер юзает (хотя в чем-то это две палки одного конца😂). Но что толку от ссылок на другие свои страницы, если текст тырится вручную?
Да, текст тырится вручную, удаляя все ссылки на внутренние страницы сайта и оставляя остальной html..
А как бороться с парсингом контента на автомате? Я так понимаю что он работает (скрипт) по определенному шаблону (по верстке), так вот например я меняю название div-ов, и чтоб человеку спарсить мой контент нужно в настройках программы или скрипта задать уже другой шаблон. Короче мне это не помогает, как еще можно запретить копировать сайт на автомате?
Еще зависит от того кто на сайт ссылается и как часто на сайте обновляется контент. Сталкивался с тем, что на сайте который копировал уникальные статьи с моего сайта, был в выдаче по названию статьи с моего сайта выше, чем первоисточник ) И все потому, что у него показатели выше и новости он копипастит с других сайтов каждый день! Где справедливость !)))
Да, текст тырится вручную, удаляя все ссылки на внутренние страницы сайта и оставляя остальной html..
А как бороться с парсингом контента на автомате? Я так понимаю что он работает (скрипт) по определенному шаблону (по верстке), так вот например я меняю название div-ов, и чтоб человеку спарсить мой контент нужно в настройках программы или скрипта задать уже другой шаблон. Короче мне это не помогает, как еще можно запретить копировать сайт на автомате?
Так как бороться с парсингом?
писи: или это уже флуд с моей стороны :)