- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А он бы ответил "Мы не правомочны разбираться в вопросах плагиата...". Ваши действия дальше? :)
ну если они не выше в выдаче то забил бы.а так мот есть какой анализатор логов или самому их посмотреть, с какого ip выполняется дико большое количество операций да и забанить.вроде в cnsstats есть возможность определить кто там хулиганит и очень много страничек загружает за секунду
Revenanter, ну это сработает для тупых парсеров только...
а для умных нет..
Поставить на сервере запрет на открытие более 10 страниц в 5сек, многие парсеры отпадут.
Собственно вопрос: чего ждать? Я конечно понимаю, что пока все хорошо, но это может рухнуть влет. Поэтому переживаю. Как избежать последствий?
Как появились - так и сдохнут. Забейте.
Revenanter, ну это сработает для тупых парсеров только...
а для умных нет..
ну автор писал про то, что у него наблюдается дикий скачок нагрузки в определенный момент.я не думаю что парсеры перед каждой страничкой меняют ip.это весьма трудоемкий процесс да и дорогой если это с помощью сервака парсится.если через своего провайдера с динамическими ip, то перезапуск подключения - это далеко не моментальный процесс.не было бы скачка нагрузки.
Как появились - так и сдохнут. Забейте.
С этим я соглашусь, однако есть и другая сторона медали, когда тырят статьи и ставят их на реально нормальные сайты. В случае с вопросами разбирательства, владельца этих статей просто тупо игнорируют. Причем ни хостинг ни другие инстанции помочь не могут.
Возможно, здесь только одно решение данной проблемы, которая заключается в поиске нормального программера, который поможет снизить риск кражи контента различными программами. Хотя это и не проблема для ручной кражи.
Просить ссылку с этих говносайтов? Такие ссылки мне точно никчему
1) не просить, а требовать
2) такие ссылку вам помогут, тем более на халяву
3) забейте
Как-то смешно звучит. Скрипт не даст посмотреть исходный код страницы? Или текст в картинку зальет? Или может во флеш? Нет и не будет программного решения, которое не позволит человеку с головой скопировать текст.
Его решение не связано с растаскиванием, оно связано с тем кто будет первоисточником, в данном случае, те кто пользуются его решением.
А он бы ответил "Мы не правомочны разбираться в вопросах плагиата...". Ваши действия дальше? :)
При постоянной переписке с поддержкой, так не отвечают, а принимают конкретные меры. Начиная с пяти писем с доказательствами, скринами и кэшами. Доказательства Яндекс принимает, но не с первого письма в поддержку.
Хорошая тактика одна, заблокировать копирование текста скриптом, гс грабителям всегда вломы перепичатовать текст вручную.