- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Это уже ньюансы и они подбираются согласно нагрузке
Ну в целом да... Просто вывод или терпеливо ждать или покупать мощные машинки. Полностью согласен.
Я сумирую выводы. Если клиент на VDS спрашивает, что можно сделать если его ДДОСяст поисковики ему можно давать такую рекомендацию:
1 - настроить iplimit
2 - проверить ip ботов, если не понятные сетки, значит кто то притворяется поисковиком и его банить или через htaccess, или через файервол
3 - если поисковики беспонтовые как яху, байду и какие то еще, тоже банить как в пункте 2
4 - если поисковики хорошие типа яндекса, настроить crawl-delay в robots.txt и запретить смотреть не нужные страницы
5 - если всеравно тормозит, а банить яндекс жалко, то расширять тариф чтобы больше ресурсов было или оптимизировать скрипты
Что то еще нужно добавить?
лучше выделенный сервер брать и активно развивать сайт, чем ужиматься на впске
Что то еще нужно добавить?
впринципе ничего больше сделать нельзя. Еще разве что оптимизировать скрипты. Ну, само собой, на ВДС оптимизировать ПО.
Вы не думали писать в Яндекс и подобные службы, чтобы сократить кол-во больших запросов? Сканировали бы сайты медленно и без создания трудностей сайтам.
Ага и в сапу о том-же надо бы писать
да уж ,спецы) пришли к выводу что надо покупать для каждого сайта по выделенном серверу :D
Зачем? Достаточно взять нормальный vps.
Я сумирую выводы. Если клиент на VDS спрашивает, что можно сделать если его ДДОСяст поисковики ему можно давать такую рекомендацию:
если клиента реально будут ддосить, то я думаю вы об этом узнаете еще раньше чем сам клиент, так как "пингивны полягут" не только на клиентской ВПСке :D
1 - настроить iplimit
2 - проверить ip ботов, если не понятные сетки, значит кто то притворяется поисковиком и его банить или через htaccess, или через файервол
3 - если поисковики беспонтовые как яху, байду и какие то еще, тоже банить как в пункте 2
4 - если поисковики хорошие типа яндекса, настроить crawl-delay в robots.txt и запретить смотреть не нужные страницы
5 - если всеравно тормозит, а банить яндекс жалко, то расширять тариф чтобы больше ресурсов было или оптимизировать скрипты
Что то еще нужно добавить?
банить поисковики типа Яхху, МСН, и прочие конечно можно, да только трафик они тоже приносят поисковой, а как известно он "конвертируется" в деньги, так что полюбому это не выход
максимально надо оптимизировать скрипты, кешировать все что можно, свести на минимум время генерации странички, лучше пусть больше скрипт жрет ОЗУ, но быстрее выводит страничку
а далее все за limit_conn + limit_rate + еще и limit_req (разумеется в nginx) ...
лучше уж отдавать 5хх ошибочку поисковому боту, чем тупо дропить пакеты на файрволе, видя 5хх они понимают что проблема техническая, т.е. бот просто зайдет попозже, а когда идет дроп - то это намного хуже 🚬