WebSupportRevo

WebSupportRevo
Рейтинг
23
Регистрация
11.05.2016

Для быстрой замены заблокированных Гугло-шрифтов подняли CDN-зеркало у себя. Достаточно просто сменить fonts.googleapis.com на fonts.w.tools. Подробнее

Самое простое и быстрое для начала - host-tracker.com. Он выдаёт 30-50 запросов (не совсем одновременно, но почти).

Если есть ошибки или скорость некоторых сильно ниже, чем у одиночных проверок ping-admin.ru (т.е. скорость сразу начала деградировать уже от тестовой нагрузки), то точно требуется решать вопрос.

Поскольку подобные количества в пиковые моменты из-за роботов периодически испытывают даже небольшие сайты. Не говоря о возможности "уложить" сайт простым тестом.

Более основательная проверка по интенсивности или по основательности (не просто GET-запросы к страницы, а симуляция пользователей с обработкой ajax-запросов и прочего) - обычно или не облачное и\или платное.

HttpPerf

WebLoad

Рагнар:
Ох я ошибся.. Хотел еще узнать об одном из самых популярных хостеров Диджитал Оушен (цифровой океан).. Кто пользовался?)

Или может вообще стоит просто залить на гитхаб и не париться?)

VPS от Океана тут просто избыточна.

С таким сайтом при внешнем CDN-кеше, хостинг для вас значения уже почти не будет иметь в любом случае.

Поэтому полностью достаточно вообще любого виртуального хостинга. Даже среди РФ\СНГ-хостеров найдёте огромное количество подходящих вариантов в пределах 1.5-2$.

Рагнар:
Доброго времени суток! Планирую делать статический сайт и хотел его разместить на клаудфлар, но насколько я понял сервис не предоставляет такой возможности, он только защищает и оказывает услугу cdn. Или статику как-то возможно разместить там?

Как решить проблему с блоками общих ip из-за некоторых недобросовестных пользователей клауди?
В принципе ясно как, нужен выделенный ip. Читал в похожей ветке, что если повесить на сайт собственный сертификат ssl, то должны выделить отдельный ip. И что подразумевается под собственным - самоподписанный или купленный в другом сервисе?

Для ваших целей на старте у нас подойдёт даже бесплатный тариф. Он уже будет быстрее большинства альтернатив, как минимум, по РФ\СНГ.

И совсем необязательно отказываться от CMS, поскольку основное преимущество - в возможностях действительного гибкого кеширования динамического контента.

Выделенные IP'ы доступны, но на практике мало актуальны (кроме разделения собственных сайтов одной тематики). Т.к. вопросы РКН-блокировок учитываются, а потенциально рискованные соседи отселяются превентивно.

* Как и с Клаудом, хостинг вам всё равно потребуется.

- Заблокируйте по User-Agent в htaccess. Зачем по ИП-адресу, когда он честно представляется.

- Оптимизируйте производительность сайта - это не нормально то, что сайт грузит один только Ahrefs. Скорее всего, это всё равно в итоге потребуется.

qvaro:
на первое время, если поставлю плагин iThemes Security, он мне даст время, 1-2 дня, чтобы снова не заразили?

iThemes Security - не панацея, но он автоматически применяет ряд блокировок, подобных тем, что вы сейчас прописываете в htaccess, и действительно может немного помочь хотя бы сэкономить время.

По htaccess. Не только содержимым GET-запросов ломают. Если вы хотите что-то нафильтровать по ним, то писать придётся ещё много, а результат всё равно будет далёк от желаемого.

Одна из не универсальных, но действительно надежных методик - белые списки на всё потенциально опасное.

Просто заблокировать в htaccess или на файрволе POST-запросы и запросы с не-пустым QUERY_STRING для всех адресов вообще, исключая белый список (или конкретные QS).

На большинстве WP-сайтов белый список на практике получается очень скромным (скрипт комментариев, формы заявок, пользовательские аяксы).

А системные папки сделать открытыми только для себя (блокировкой по IP-адресу или HTTP-авторизации).

Для современных Вордпрессов нет большого смысла, но для многих не лишнее поудалять до попадания в CMS заголовки User-Agent \ X-Forwarded-For, если не используются.

С тем, что никакая защита не абсолютна, мы на практике сочетаем комплекс решений:

1) Внешний файрвол - для реализации подобных блокировок, только в более удобном и эффективном виде, чем через htaccess

2) Лёгкие бэкапы - позволяют делать "снимки" хоть каждый час

3) Антивирус - автоматически проверяет каждый бэкап и высылает уведомления

4) Подробный контроль всех изменений - если антивирус не определил проблему, то всё равно будет видно добавление\изменение потенциально опасных файлов

Ещё ряд дополнительных модулей оптимизирует ситуацию. Но уже эти позволяют главное - и защитить, и, в случае прорыва, сразу узнать о проблеме да почти моментально вылечить сайт.

Есть существенная вероятность того, что вы не совсем корректно определили причину данной проблемы.

Может быть изменение кодировки в http-заголовках. Для начала попробуйте хотя бы просто явно указать её в html, если нету.

Либо просто воспользуйтесь нашим решением, которое не требует интеграции с плагинами и гарантированно обеспечит намного бОльшую скорость и экономию нагрузок.

ErrorNeo:
б) скорость загрузки сайта, укладывающаяся в стандартные величины.
в) регулярная (постоянная) доступность сайта

1. Согласно аналитике MOZ - в Гугле есть незначительное прямое влияния параметра Time To First Byte (т.е. момента начала загрузки).

2. По другим исследованиям MOZ, а также статистике Амазона скорость влияет на конверсию.

Из-за связи с общим комфортом посетителя и возможностью его быстрее "зацепить".

Для поисковых систем ваша конверсия связана с параметрами, которые учитываются в рамках расчета Поведенческих Факторов.

3. Аптайм по аналогии имеет то же значение для посетителей, только более выраженное.

В том числе, и из-за того, что во время неработоспособности сайта практически все посетители с поиска становятся "отказами".

4. Пауки Гугла и других ПС имеют алгоритмы для расчета максимальной интенсивности индексации сайта.

Так делается, чтобы минимизировать шансы перегрузки сайтов из-за недостатка ресурсов.

Поэтому из-за появления медленных или ошибочных запросов сама индексация тоже может замедляться.

Как и в случае, если вы были вынуждены вручную ограничить скорость индексации с помощью Crawl-Delay.

* В плане ошибок, помимо просто их искоренения не лишней может быть отдача заголовка "Retry-After" вместе с ними.

Он не очень популярен, но бот Гугла и некоторые другие его учитывают.

------

Влияние HTTPS - большинством оценивается как существующее, но не значительное и зависящее от типа сайта.

Как обязательную необходимость можно воспринимать для коммерческих проектов или любых других, где происходит взаимодействие с персональными данными посетителей (есть регистрация, возможности заказа, приёма заявок или подобное).

Точно очень значимое и объективное влияние есть в случаях, когда из-за форм браузеры подписывают HTTP-сайт в адресной строке как "Ненадёжный".

Эта коварная формулировка многими посетителями может быть воспринята как предупреждение об опасности самого сайта. Что имеет шансы подорвать доверие и, как следствие, конверсию и ПФ.

romanchikolga:
У вас на компьютере стоит антивирус? Вот его и используйте. Просканируйте все файлы своего сайта на хостинге. Программа выявит и удалит вирус. Если нет – обращайтесь в службу поддержки разработчиков антивируса.

Обычные антивирусы - не лишнее на правах "дополнительной помощи". Но с такими проблемами нужно начинать разбираться всегда с помощью специализированных антивирусов для сайтов. Это совсем другие подходы. И у сайта есть не только файлы, но и БД.

Только комплексный подход может дать надёжные гарантии.

1. Жёсткая фильтрация запросов к сайту по типам, адресам и содержимому.

С помощью htaccess или файрвола.

Индивидуальная адаптация с подходом исключительного "белого списка" на POST-запросы, запросы с GET-параметрами - для многих может сразу дать 98+% эффективности.

Поскольку блокирует сами возможности для использования уязвимостей.

2. Исключение лишних данных из запросов.

Некоторые уязвимости используют неправильную обработку заголовков USER-AGENT, X-FORWARDED-FOR и некоторых других.

Большинству сайтов они не нужны и могут быть просто заранее вырезаны перед попаданием данных к CMS.

3. Минимально необходимые права на все файлы.

Некоторые уязвимости взломщик может использовать только, если одновременно есть проблемы с правами.

4. Готовность к тому, что возникнет ситуация, когда все защиты не сработали и взлом произошёл.

- Контроль работоспособности сайта

- Постоянные антивирусные сканирования файлов и БД

- Контроль за всеми изменениями в потенциально опасных файлах

- Внешний контроль за появлением редиректов, новых js-вставок и исходящих ссылок

- Обеспечение возможности быстро восстановиться после проблем из резервной копии

5. Постоянное обновление CMS, плагинов и сопутствующих скриптов - разумеется, тоже помощь.

Но, как и отслеживание багтрекеров, - это требует постоянной ручной работы, в результате чего является самым дорогим методом.

Который в полноценном виде доступен только достаточно крупным проектам.

А для стандартных, в основном, используется после взлома.

123 4
Всего: 36