- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Я сторонник того чтобы в проде проекты не запускать на шаредах
У вас что то не корректно работает, отдача с кэша данных не выгребает лимиты, а если вы генерируете каждый раз ответ каждому боту ответ который от запроса к запросу все равно не отличается, то вы не в ту сторону делаете скрипты
Каждому проекту - соответствующее решение. Там, где мне нужно чтобы сайт работал на отдельном сервере - он там и работает. Там, где сайт рассчитан на небольшой трафик - мне не нужен сервер, мне не интересно его обслуживать, не интересно этим заниматься и, главное, это экономически нецелесообразно. Для мелких проектов существует хостинг.
Вы понимаете, что даже при наличие кэша, одно обращение к php и mysql - это нагрузка? И чем больше ботов будет ее нагружать, тем быстрее выбираются лимиты хостинга. Зачем мне тратить лимиты хостинга на ботов, если их можно заблокировать? Вы с товарищем выше все никак не поймете простого: есть хостинг, есть лимиты, есть сайты, которым не нужно что-то большее, чем эта конфигурация. И для таких сайтов, где на 1000 уников в день приходится 100 тысяч запросов от ботов - это рабочее, эффективное решение. То, что у вас есть nginx, iptables или вам нравится клауд - это не значит, что это есть у остальных. Вас послушать, так хостерам давно пора закрыть хостинг планы и продавать только сервера, а то че они )
При чем тут DDoS вообще, он даже близко тут не обсуждался и не обсуждается.
Вы видимо даже старпост не читали. Очередной монолог.
А все остальное это ваша детская фантазия. Ни я, ни кто другой, ничего подобного не говорили. Детский сад с умопомрачительной фантазией. Вы сперва создайте хоть микропроект один, а потом объясняйте кому-то что-то.
Вы понимаете, что даже при наличие кэша, одно обращение к php и mysql - это нагрузка?
Я же говорю вы куда то не туда копаете, обращение к php возможно, но у вас уже apache и htaccess, представьте что на любой запрос к серверу вообще на любой, апачу приходится каждый раз распаршивать этот файл и чем больше в нем инструкций тем больше деградирует ваш вэбсервер который создает точно такую же нагрузку в попугаях CP как и php. Обращение к БД при наличии нормально выстроенного кеширования не происходит.
Зачем мне тратить лимиты хостинга на ботов, если их можно заблокировать?
А еще можно заблокировать что то более полезное чем просто ботов. На одном проекте у меня 1.5кк запросов от ботов яндекса и гугла, мне их побанить? При легитимных от юзеров в районе 100к хитов
это рабочее, эффективное решение
Я рад что для вас это рабочее и эффективное решение, вы же мониторите сайт и ботов что баните, а что не баните =))) У вас отличное сравнение про жигули и мерседес, вот вы всем ходите и рассказываете что жигули это рабочее и эффективное решение =)) хотя эффективность то по сути никак и нигде не доказана, но дело то ваше, мы вам подсказали в какую сторону можно копать и не только вам, это называется делиться опытом, но в целом упереться вам никто не запрещает это ваше право
Вы видимо даже старпост не читали. Очередной монолог.
Вы сперва создайте хоть микропроект один, а потом объясняйте кому-то что-то.
И да, точно, вам в комментариях пишут, что применяется на практике на своих проектах, но вы не можете этого прочитать, а потому опять спрашиваете про "создать хоть один". Ну да, ну да.
апачу приходится каждый раз распаршивать этот файл и чем больше в нем инструкций тем больше деградирует ваш вэбсервер который создает точно такую же нагрузку в попугаях CP как и php. Обращение к БД при наличии нормально выстроенного кеширования не происходит.
А еще можно заблокировать что то более полезное чем просто ботов. На одном проекте у меня 1.5кк запросов от ботов яндекса и гугла, мне их побанить? При легитимных от юзеров в районе 100к хитов.
Я рад что для вас это рабочее и эффективное решение, вы же мониторите сайт и ботов что баните, а что не баните =))) У вас отличное сравнение про жигули и мерседес, вот вы всем ходите и рассказываете что жигули это рабочее и эффективное решение =)) хотя эффективность то по сути никак и нигде не доказана, но дело то ваше, мы вам подсказали в какую сторону можно копать и не только вам, это называется делиться опытом, но в целом упереться вам никто не запрещает это ваше право
1) Перестаньте уже копировать пугалки из Интернета про то, как долго обрабатывается htaccess. У меня на одном из проектов, ради тестов, разрешены только белые списки IP. Все остальное запрещено. Файл htaccess содержит порядка 10 000 строк с масками подсетей на сотни тысяч адресов. Никаких лагов или тормозов, и это на дешевом хостинге, не наблюдается. Вам не надоело повторять чужую информацию, не проверив ее на практике?
2) Перестаньте рассказывать сказки о проектах, где нет ни одного обращения к БД и все в кэше. Есть миллионы проектов, где всегда выводится актуальная информация или проверяются данные авторизации. Вы, в принципе, слышали о том, что существуют проекты отличные от статейников, у которых можно загнать все в кэш? Про то, что вы сравниваете производительность обработки только htaccess и запроса, который включает его и плюс php/mysql вообще промолчу.
3) Про белые списки слышали? Тот же Гугл и Яндекс давным давно публикуют списки своих официальных ботов. Это не говоря о том, что есть временные баны, а не постоянные и контроль не только ip, но и юзерагента, например. И, в случае сработки юзерагент+ip не из белого списка - легко проверяется реальная принадлежность ip-адреса.
4) Доказанная эффективность - это практика, которой вагон и маленькая тележка, которая на хостинге позволяет отбиваться от большей части мусорных ботов, обсуждаемых тут же на Серче уже не первый год. В том числе и те, которые посещая мои сайты, обваливали отказы, время посещения или количество просмотров страниц.
5) Делятся опытом с тем, кто знает меньше вашего.
На одном проекте у меня 1.5кк запросов от ботов яндекса и гугла, мне их побанить? При легитимных от юзеров в районе 100к хитов
.... хотя эффективность то по сути никак и нигде не доказана, но дело то ваше, мы вам подсказали в какую сторону можно копать и не только вам, это называется делиться опытом, но в целом упереться вам никто не запрещает это ваше право
Делиться опытом в чем? 🤣 Одной вашей строки хватает сказать, что опыта ноль.
1.5кк запросов от ботов яндекса и гугла, мне их побанить? - ТЗ: Уменьшить до 5%
Как найдете решение, приходите делиться опытом.
Защитился от DOS, пиши защиту от MacOS.
Но можно, если просто оптимизировать сайт и исправить ошибки "школьника". (ТС )
Это вы, видимо, стартпост не читали, в котором идет речь про "защиту от DOS средней и малой интенсивности на php". Вы в курсе, что такое DoS и что такое DDoS? Не покажете, где в стартпосте идет речь о DDoS?
И да, точно, вам в комментариях пишут, что применяется на практике на своих проектах, но вы не можете этого прочитать, а потому опять спрашиваете про "создать хоть один". Ну да, ну да.
И смех и грех 😀
Удобненько так устроились, читать только "правильные" комментарии, а остальные игнорировать. Как я и говорил детский сад.
1) Перестаньте уже копировать пугалки из Интернета про то, как долго обрабатывается htaccess. У меня на одном из проектов, ради тестов, разрешены только белые списки IP. Все остальное запрещено. Файл htaccess содержит порядка 10 000 строк с масками подсетей на сотни тысяч адресов. Никаких лагов или тормозов, и это на дешевом хостинге, не наблюдается. Вам не надоело повторять чужую информацию, не проверив ее на практике?
2) Перестаньте рассказывать сказки о проектах, где нет ни одного обращения к БД и все в кэше. Есть миллионы проектов, где всегда выводится актуальная информация или проверяются данные авторизации. Вы, в принципе, слышали о том, что существуют проекты отличные от статейников, у которых можно загнать все в кэш? Про то, что вы сравниваете производительность обработки только htaccess и запроса, который включает его и плюс php/mysql вообще промолчу.
3) Про белые списки слышали? Тот же Гугл и Яндекс давным давно публикуют списки своих официальных ботов. Это не говоря о том, что есть временные баны, а не постоянные и контроль не только ip, но и юзерагента, например. И, в случае сработки юзерагент+ip не из белого списка - легко проверяется реальная принадлежность ip-адреса.
4) Доказанная эффективность - это практика, которой вагон и маленькая тележка, которая на хостинге позволяет отбиваться от большей части мусорных ботов, обсуждаемых тут же на Серче уже не первый год. В том числе и те, которые посещая мои сайты, обваливали отказы, время посещения или количество просмотров страниц.
5) Делятся опытом с тем, кто знает меньше вашего.
Есть более грамотные решения, чем перебирать 100500 IP. Явно програмирование на начальном уровне.
1.5кк запросов от ботов яндекса и гугла, мне их побанить? - ТЗ: Уменьшить до 5%
ну расскажите мне как мне 122 поддомена (региональность) ведущих на один сайт снизить до 5% =)) ну жгите опытом =))
PS да это интернет магазин с более чем 200к страниц на каждый поддомен
Есть более грамотные решения, чем перебирать 100500 IP. Явно програмирование на начальном уровне.