- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Где-то на просторах интернета нашёл данный список ботов:
Добавил правило в nginx и перестал работать правильно крон на wordpress.
Если комментирую строки и делаю рестарт nginx, крон начинает отрабатывать задачи. Что не так, подскажите пожалуйста и поделитесь рабочим листом ботов, которые можно забанить. Похоже человек не совсем разбирался в том, что блокирует.
До этого был список бан ботов такой и всё работало:
Правильный ли это список, блокировать curl к примеру?
Ещё письмо пришло от сервиса, как закомментировал строки, который сканирует сайт онлайн или нет. Типа сайт снова онлайн.
Значит в кроне есть задача/правило которое попадает под условия блокирования ботов.
открываем access логи nginx и смотрим кому (с каким агентом) был ответ 403... или какой там сделан. это же только map кусок, вырванный неизвестно откуда. а само условие блокировки неизвестно куда у вас вставлено и как, может там загвоздка, а не в map.
Значит в кроне есть задача/правило которое попадает под условия блокирования ботов.
Это 100%, просто что бы не искать, подумал есть у кого-нибудь расширенный список ботов, что бы добавить, а эти строчки удалить.
Может есть у кого список ботов?
---------- Post added 07-05-2020 at 12:51 ----------
открываем access логи nginx и смотрим кому (с каким агентом) был ответ 403... или какой там сделан. это же только map кусок, вырванный неизвестно откуда. а само условие блокировки неизвестно куда у вас вставлено и как, может там загвоздка, а не в map.
Да по логам можно было глянуть. Кусок map стоит в nginx.conf и блокирует по этим условиям всех, кто пытается попасть на сайт с таким агентом.
А что вы хотели, если вы блокируете юзерагенты ботов и желаете использовать какую-то задачу по крону. Значит в кроне выполняется что-то с каким-то дефолтным юзерагентом, может Curl может Wget может все что угодно. Смотреть что у вас там и измените useragent.
У вас крон через wget?
Запускайте крон так:
wget --user-agent="Mozilla/5.0" -O /dev/null -q -t 1 http://site.ru/cron.php
А что вы хотели, если вы блокируете юзерагенты ботов и желаете использовать какую-то задачу по крону. Значит в кроне выполняется что-то с каким-то дефолтным юзерагентом, может Curl может Wget может все что угодно. Смотреть что у вас там и измените useragent.
Да, спасибо - разберусь, пока просто закомментировал. Где-то видел список ботов большой, думал может кто-то поделится им. Погуглю.
---------- Post added 07-05-2020 at 19:51 ----------
У вас крон через wget?
Запускайте крон так:
wget --user-agent="Mozilla/5.0" -O /dev/null -q -t 1 http://site.ru/cron.php
Нет, до этого всё работало с такими строчками:
При указании useragent всё нормально становиться?
подскажите зачем тут map?
не супер эксперт в nginx, есть ли различия и какие если просто через if указать?
if ($http_user_agent ~* "bot1|bot2") {
return 403;
}
if ($http_user_agent = "-") {
return 403;
}
может кому нужен актуальный список, собирал сам около года.
return 403;
}
if ($http_user_agent = "-") { return 403; }
обратите внимание на последнее $http_user_agent = "-" - очень много ботов вообще не подписывают юзер агент, такие тоже нужно "брить"
если просто через if
https://www.nginx.com/resources/wiki/start/topics/depth/ifisevil/
Может есть у кого список ботов?
Ahrefs|Linguee|SputnikBot|spbot|DigExt|Sogou|MJ12|majestic12|80legs|SISTRIX|Semrush|Crowsnest|CCBot|TalkTalk|PaperLiBot|peerindex|ia_archiver|Slurp|Aport|NING|JS-Kit|rogerbot|BLEXBot|MJ12bot|Twiceler|Baiduspider|Java|CommentReader|Yeti|discobot|BTWebClient|Tagoobot|Ezooms|igdeSpyder|AhrefsBot|Teleport|Offline|DISCo|netvampire|Copier|HTTrack|WebCopier|WebCollector
Вопрос - на сайт под ботом bing летит по 10-20 запросов в сек. Это может быть ктото косящий под него или реально он такой агрессивный может быть? Просто этой ПС ник не пользуется же. Трафика с нее также нет.