- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
tommy-gung, Я работаю с продвижением ресурсов которые аккумулируют спарсенные данные с разных ресурсов. И хорошо представляю какие проблемы могут создать те ресурсы которые парсятся, если пред ними появится такая задача. Они их не специально и то создают, а ели зададутся задачей просто из принципа, то многим кислород перекроют. Не стоит говорить, что все и всегда решаемо в приемлемые суммы. Не все и не всегда.
У всего есть себестоимость, а у дурости она бесконечна.
Единственный вариант, как мне кажется, динамически менять html теги, тогда сложно будет спарсить определенный участок сайта. Только страницу целиком.
Вроде бы ботов гугла можно определять довольно уверенно.
Не всех конечно. Но тех кто забирает помногу можно.
Более того, они (боты) слушаются обычно директив.
Весь вопрос в том, сколько типичному юзеру надо страниц.
Если одна - две :), то можно больше двух на 1 ip и не отдавать, в сутки.
Да - это сурово, но такова жизнь.
Пропишут юзер-агенты пс и будут спокойно парсить.
Капчами и ограничениями будете радовать только своих посетителей.
tommy-gung, Я работаю с продвижением ресурсов которые аккумулируют спарсенные данные с разных ресурсов. И хорошо представляю какие проблемы могут создать те ресурсы которые парсятся, если пред ними появится такая задача. Они их не специально и то создают, а ели зададутся задачей просто из принципа, то многим кислород перекроют. Не стоит говорить, что все и всегда решаемо в приемлемые суммы. Не все и не всегда.
спарсить и тупо скачать - две большие разницы. чтоб просто сделать клон нет необходимости делить данные по нужным "полям"
спарсить и тупо скачать - две большие разницы. чтоб просто сделать клон нет необходимости делить данные по нужным "полям"
От клонирования, защищаться нет смысла, помоему. Всеки тс скорей боится, что кто спрасит данные с его сайтпа, а сервис предоставит лучше чем на его.
пс. Хотя если честно, я вообще не верю в скил тех кто по таким мыслями ищет ответы на серче.
динамически менять html теги
Поисковый бот слегка... удивится.
Поисковый бот слегка... удивится.
И тут можно перейти к теме тегов в потоке сознания людей, чей мир не принимается считающими себя нормальными
Контентом там будут не авторские тексты, а некая весьма полезная информация, являющаяся результатом работы некоего аналитического алгоритма.
Как вариант:
Отдаете в HTML изначально неверный результат (пусть парсят).
Аяксом сразу заменяете на верный - для пользователя.
Господа, у меня на подходе интересный проект и в силу интересности он однозначно вызовет интерес всяких нехороших вредных личностей, поэтому будет нуждаться в защите.
Еще не факт. Вот вызовет - обращайтесь.
Присущ, я про это и говорю. Если захотят, спарсят что угодно
Как вариант:
Отдаете в HTML изначально неверный результат (пусть парсят).
Аяксом сразу заменяете на верный - для пользователя.
неужели вы думаете, что никто не смотрит результат, который отображается? :)
да и чаще аяксовые данные еще проще парсить, так как они отдаются чаще в json, xml