- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно ищу название этого самого робота. Рад любым сведениям, которые помогут решить проблему.
Пока попробовал сделать так:
User-agent: liveinternet spider
Disallow: /
Но результатов пока нет.
Вообще хочется закрыть сателлиты от индексации ненужными роботами (начали грузить сервер). Вот заступорился на поиске названий этих роботов.
Насколько я знаю, в ЛиРу поиск идет по каталогу, так что у них нет спайдера..
Насколько я знаю, в ЛиРу поиск идет по каталогу, так что у них нет спайдера..
Кто же это ломится на мои сайты
softsafer, напиши Иванову ivanov@corp.liveinternet.ru, чтоб бота забрал 😂
Бот там у них дикий, сайты вешает на ура, бань его по ip , такие доморощенные "поисковики" могут и не обращать внимания на правила в роботсе...
Через .htaccess по USER_AGENT лучше всего
Кто же это ломится на мои сайты
может это злые конкуренты))можно хоть гуглом к вам ломиться, хоть дьяволом с китайских айпи:)
вообще как вариант можно и на уровне интерпретатора зарезать
если это пхп то например сделать файлик antibot.php
там написать что-то в роде if http user agent ... die ...
и проинклюдить его
хотя на уровне сервака надежней да и экономично
softsafer, напиши Иванову ivanov@corp.liveinternet.ru, чтоб бота забрал 😂
Написал, а он цуко не забирает.
Код:
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} liveinternet [OR]
RewriteCond %{HTTP_USER_AGENT} WebAlta [OR]
RewriteCond %{HTTP_USER_AGENT} Yanga [OR]
RewriteCond %{HTTP_USER_AGENT} Twiceler [OR]
RewriteCond %{HTTP_USER_AGENT} Flexum [OR]
RewriteCond %{HTTP_USER_AGENT} libwww-perl
RewriteRule ^(.*)$ - [F,L]
Элегантный способ. До клоакинга я не допёр.