- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую.
Уже который месяц пытаюсь решить проблему с увеличением нагрузки. Обновила дизайн сайта, установила несколько плагинов для ускорения, Cloudflare подключила, и пошло-поехало - выше 100 пунктов в день фигачит, хотя до этого было максимум 40.
Посещалка - не больше 3000 чел. в суток. Плагины уже все удалила, фрилансер чего-то поколдовал, немного отпустило, а потом опять пошло. Много запросов к файлам плагинов, стилям и т. д. Прикрепляю скрин статистики за сутки. Может, кто может навести на мысль, что это вообще такое? Буду безумно благодарна.
Это запросы за сутки, или за минуту/час? Пока что данные - сферический конь в вакууме. Если это за сутки - весьма странно и нужно действительно смотреть.
Возможно, у вас вырос размер базы данных, возможно - ваш сайт кому-то не нравится, возможно - боты белены объелись. Кто хостер хоть?
Это запросы за сутки, или за минуту/час? Пока что данные - сферический конь в вакууме. Если это за сутки - весьма странно и нужно действительно смотреть.
Я там писала, что за сутки это.
Хостер был sweb, сейчас переехала на beget. Консультировалась в одной из групп, мне сказали, что дело в "дырах" в сайте. Такое может быть? Что за дыры такие?))
Настройте фильтры в фаерволе клаудфлара, там по сути 2 фильтра надо:
1) разрешать белым ботам доступ.
2) банить всех, кто не с протоколом http2
и нормально, процентов до 5 легитимного трафа только отвалится :D
Ну или на сайт поставить антибота из моей подписи.
Заблокируйте на клоуде в файрволе Украину,США,Китай,Индию и Британию.
ogenry, а логи смотрели? Может боты вроде AhrefsBot нагрузку дают. Можно попробовать закрыть им доступ через .htaccess и robots.txt
Посещалка - не больше 3000 чел. в суток.
И в картинке выше тоже по 3к запросов к банальным файлам со скриптами и стилями. В чем вообще проблема ?
Может я что то в вордпрессе не понимаю, но это же статика, которая отдается минуя сам движок - т.е. напрямую вэб сервером. Как вообще это может нагрузку создавать ?
И в картинке выше тоже по 3к запросов к банальным файлам со скриптами и стилями. В чем вообще проблема ?
Может я что то в вордпрессе не понимаю, но это же статика, которая отдается минуя сам движок - т.е. напрямую вэб сервером. Как вообще это может нагрузку создавать ?
Был раз случай, когда по адресу не было статического файла, в итоге сайт отдавал 404 страницу, которую обрабатывает WordPress. На этой же странице снова была ссылка на этот статический файл. Как итог - при заходе на сайт, любой пользователь циклично долбил сайт запросами.
Может я что то в вордпрессе не понимаю, но это же статика, которая отдается минуя сам движок - т.е. напрямую вэб сервером. Как вообще это может нагрузку создавать ?
Ну т.е. дисковые ресурсы бесконечны по вашему?
На скрине проблема обычного хостинга, когда боты приходят и начинают очень быстро высасывать сайт. Нынче модно, вместо того. чтобы писать скрипт серверный, многие парсят через эмуляторы браузеров, которые полностью загружают сайт как обычный пользователь, но скорости обработки такие, что один такой парсер делает очень большую нагрузку. Ни о какой оптимизации и пощады донорам, такие парсеры не знают, особенно в 10 потоков.
Ну т.е. дисковые ресурсы бесконечны по вашему?
Ну если проблемы возникают при таких мизерных запросах, то что же там со скриптами происходит ?
15 секунд на 3000 запросов css файла в 52Kb . Это впс за 5 баксов, у который скорость диска не блещет
А у ТС еще не факт, что все ответы были 200 , а не 304,
Был раз случай, когда по адресу не было статического файла, в итоге сайт отдавал 404 страницу, которую обрабатывает WordPress.
Судя по начальному посту, там такое вряд ли. Все таки смотрели и оптимизировали :)
Stek, Первое обращение было с диска
Всё остальное уже было с кеша ОС