а как написать исключение для бота
18.197.62.178 ec2-18-197-62-178.eu-central-1.compute.amazonaws.com domain.com Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/61.0.3163.100 Chrome/61.0.3163.100 Safari/537.36 PingdomPageSpeed/1.0 (pingbot/2.0; +http://www.pingdom.com/)
смотреть во вкладке Network? Тогда там код 200. Время 371 ms, size 7,9 kb, type - document.
Я обратился к этому файлу, получил в браузере - ab=1.
И почему в файле ab.php есть комментарий
странная ситуация, когда прописал в конфиге путь к ab.php
Было -
Стало -
Проверка на pingdom останавливается на заглушке. При дефолтных путях, страница сайта грузится полностью. С чем это может быть связано?
И проверка проходит моментально, не успевает отсчитать даже до 4. А когда грузишь со своего сервера, то там проверка максимальная, доходит и до 5 секунд.
друг, есть проблема. Проверял на Pingdom, в проверке из Австралии, например, подгрузка скрипта идет с домена https://antibot.cloud/, и может занимать до 5 000 ms, что не есть гуд. Учитывая что общая загрузка сайта всего 6 500 ms. Можно ли это как-то уменьшить? Подгружать все со своего сервера, например.
про cloudflare слышали? там ip нахаляву.
можете сделать с пяток приличных сателитов, это не так дорого. и прокачивать их сапой, эффект не заставит себя ждать, и основной сайт вне угрозы.
может, запросто, купил ссылок на 100 баксов в сапе = профит. Ровно через месяц ап x2 трафа с гугла за один день.
что значит отключать или нет? я думал что всегда надо смотреть рентабельность, есть доход оставить, уходишь в минуса - кхерам. развели тут нюни.
помимо снятия нагрузки на сайт, можно хорошо прятать беки с сателитов которые ссылаются на основной сайт. Боты сервисов сбора типа ахрефс, мажестик, семраш попросту не могут найти ссылки ибо не могут попасть на сайт. а значит не самые пытливые недоброжелатели не смогут найти обратных ссылок вот так вот сразу.