WebSupportRevo

WebSupportRevo
Рейтинг
23
Регистрация
11.05.2016
_SP_:
К сожалению, массе проксирующих ДНС (у дебилопровайдеров) пофиг на эти установки.
Может легко неделя принудительно стоять.

Безусловно, такое бывает.

Но у столь глобальной и фаталистичной формулировки этой проблемы очень почтенный возраст.

Раньше подобных "исключений" было на порядки больше. А сейчас ситуация вполне хорошая и продолжает улучшаться:

1. Меньше потребности в экономии ресурсов.

Никто не держится осознанно за нелепые "принудительные" настройки.

2. Снижается распространённость старого некорректного софта и сопутствующего наследства настроек.

Это постоянный процесс везде, но в сфере ДНС популярность DDOS-атак через резолверы в ряде случаев мотивировала и тех, кто очень хотел ничего не менять.

3. Даже в этой консервативной сфере были не очень известные, но очень полезные технологические новшества.

В частности, EDNS-CLIENT-SUBNET (ECS) расширение появилось только 6 лет назад.

И, например, любимые многими Google DNS всего 3 года как дошли до его совсем полноценной поддержки.

А с ECS кеширование идёт с разделением по подсетям.

Поэтому посетители сайтов со средней посещаемостью - вообще очень редко попадают в какой-либо кеш, кроме собственного.

Т.е. новые посетители перенаправляются даже не с TTL, а с нулевой задержкой.

Проблема же с игнорированием TTL - всё же есть. Это не идеал.

Но на практике речь не о "массе", а об очень незначительной части аудитории (преимущественно, региональной).

Не о неделях задержек, а, в большинстве, о минимумах в 5-20 минут TTL у этой незначительной части аудитории.

Более серьёзные проблемы - у совсем исчезающе малого количества.

Да из него большинство роботы (не ПС) и мобильные.

---------- Добавлено 05.07.2017 в 09:55 ----------

hosting_manager:
У популярных сайтов в А-записях можно видеть потому сразу 12-15 адресов. Это же, в свою очередь, помогает защититься от атак.

Это действительно простой и рабочий метод, если есть технические возможности у самого сайта. Но исключительно для дополнительной "полировки" стандартного ДНС-способа.

На деле и требуется, чтобы нерабочий адрес совсем не откликался, и браузер достаточно долго ждёт (ХХ секунд) перед новой попыткой.

Kepus:
Вопрос лишь в том, как обеспечить синхронизацию данных с первого основного на второй сервер? Предположим, что ежедневно в течении дня на сайье публикуется по 10-15 материалов. WordPress

Первейший вопрос в том, точно ли вам нужно именно это и насколько критичны задержки в синхронизации.

1. Сайт стандартного типа и размера; данные приемлемы с многодневной давностью; и при проблемах достаточен доступ только на чтение?

Делать не нужно вообще ничего.

Вам уже подсказали вариант с AlwaysOnline.

Из основных минусов:

- "снимок" может оказаться недельной давности;

- будет содержать далеко не всё (если сайт больше стандартной визитки);

- рассказывает посетителям о проблемах сайта, когда полезнее промолчать;

- может не сработать при некоторых ошибках (например, при проблемах БД).

Сходный модуль WSR сочетает "архивный снимок" с всегда свежим дополняющим "рабочим кешем" и интегрирован с гибко настраиваемым мониторингом, который принимает решения при подтверждении из 3 разных ДЦ.

2. Нужен работающий функционал и\или повышенная, но всё же не очень критичная актуальность данных уровня 6-24ч?

Берёте уже описанные здесь методы по самостоятельному построению ДНС-отказоустойчивости и мониторинга.

Добавляете простой, неэффективный, но более чем достаточный баш-скрипт:

- rsync для файлов, не забыв исключить кеши WP;

- бэкап+рестор для БД.

Можно аккуратнее, но это сложнее, а при таких объёмах полная обработка БД не проблема. С удалённым доступом к БД всё реализуется со стороны одного из серверов и правда очень лаконично. Ну разве что, кроме контроля успешности.

Либо с несколько более интересной надёжностью и трудоёмкостью:

- Настраиваете ресторы по расписанию в бэкап-модуле WSR.

- А в CDN указываете резервный сервер, и, вместо использования "снимка", запросы будут перекидываться на него.

А если и он умрёт, то тогда уже "снимок".

3. Актуальность критична на уровне секунд\минут?

Тут уж точно репликация БД, что достаточно просто для такого случая.

Для файлов аналогичным уровнем была бы, например, GlusterFS.

Но в отличие от БД столь частые и действительно нужные изменения на уровне файлов бывают редко у большинства проектов.

И, скорее всего, реальным требованием будет вполне соответствовать куда более простое решение - тот же rsync, только с небольшими поправками в характере применения.

- Сравнительно редкая общая синхронизация.

- Очень частый или событийный запуск для папок с часто меняющимися файлами (вероятно, только картинки).

А в остальном тоже самое.

Наблюдаем немалое количество клиентов, переходящих на HTTPS "прямо оптом".

Данных по индексации, к сожалению, не имеем. Но поскольку вопросы о последствиях и правильности перехода встречаются ежедневно, собрали у практиков ряд эмпирических, но действительно актуальных мнений:

1. В срезе Яндекса - важна HTTP+HTTPS доступность для robots.txt первое время.

Обоснование: нередко Яндекс.Вебмастер после смены протокола временно сообщает о недоступности Роботса. А и директиву Host желательно, чтобы читал; и даже временное попадание лишних страниц в индекс может быть ущербом.

2. Немного более «гладко» проходит переезд, при котором сайт оставляют временно доступным одновременно по обоим протоколам. Около недели с момента того, как настроили HTTPS и указали его в личных кабинетах у поисковиков и в robots (обязательно, везде).

Обоснование: пока своей очереди ждёт считывание настроек и обход роботами HTTPS-версии, старая HTTP-версия в поиске менялась бы чуть менее оперативно, чем в случае редиректов.

3. Самые осторожные вебмастера, имеющие сайты, для которых нет жесткой необходимости (некоммерческие и без взаимодействия с личными данными), пользуются очень удачной политикой «переходить на HTTPS сразу в момент появления любых SEO-проблем».

Обоснование: это не только минимизация пусть и небольших, но возможных потерь, а ещё и некоторый шанс ускорить переиндексацию и восстановление от негатива.

4. И в завершении простой факт, есть очень распространённая ошибка – «смешанный контент». В базе страниц и форумных постов бывает множество картинок, в том числе и со сторонних сайтов, такое иногда непросто не только исправить, но и найти. А это нарушение требований HTTPS.

Для Вордпресса это исправляется, например, с «SSL Insecure Content Fixer». Для многих CMS есть аналоги. Но не для всех, да это в любом случае небольшой лишний ущерб производительности. Специально из-за такой ситуации сейчас запускаем модуль, который проводит смену напрямую в любых файлах и БД.

Иван34:
Один из таких сайтов имею, уже 100 раз пожалел, что перевел на https..
Других своих старичков и не думаю трогать, абсолютно нет никакой разницы в гугле с продвижением, хоть и не менял протокол.

Жаль, что нет возможности посмотреть на сайт. Пока действительно значимого негатива про смену протокола на практике не встречали в случаях, при которых выполнялись хотя бы базовые правила перехода.

По возможным причинам.

- Действительно, есть множество неизвестных алгоритмов ПС, с которыми ничего не гарантировать и переживать стоит за любое большое действие.

- Но есть и общая положительная статистика. И точно объективный фактор, который может влиять. И который концептуально отличает «просто HTTPS» от описанных нами случаев.

--- С HTTPS сайт медленнее везде, а особенно ощутимо это для отдалённых от хостинга регионов.

1. Если хостинг в Санкт-Петербурге, то где-нибудь во Владивостоке ваш сайт стал медленнее на 0.5сек, а в США на 0.8сек.

И это для пользователей с хорошими каналами. И в условиях, если у вас не перегруженный сервер.

-> комфорт посетителей снизился -> ПФ ухудшились -> поисковикам не нравится

2. Робот Гугла проверил сайт – тоже ухудшение засчиталось (особенно, если вдруг не из российского ДЦ обратился, что бывает).

* см. исследование MOZ про связь позиций с Time to First Byte в Гугле

3. На сайте много страниц – ситуация не обязана возвращаться к первоначальной, пока не обойдёт все и соответствующим образом не пересчитает характеристики по перелинковке и прочему. Причём обход нередко может потребоваться не однократный.

А чем медленнее сам сайт, тем меньше и скорость индексации.

Если ваша проблема вдруг окажется связана исключительно с №3, то всё ещё наладится и само по себе.

topmedia:
Но есть нюанс - автопродление иногда отваливается. Гуглить: "query timed out looking up CAA"

Не имея статистики по хостингам не могу поручиться, но не думаю, что все хостинги поголовно используют DNS-CAA-метод.

Как минимум, точно никто не заставляет его использовать при самостоятельной реализации на своём сервере.

Нам изначально показался более надёжным метод с подтверждением сертификатов с помощью проверочных файлов, вместо DNS (файлы, разумеется, "виртуально" генерируются на уровне CDN, а не грузятся на сайты).

Проблем с ним не встречалось в принципе. Даже, когда у LetsEncrypt было ещё немало багов.

Рекомендуем.

topmedia:
Компенсируется активацией HTTP/2

HTTP/2 это, безусловно, хорошо. Но, к сожалению, даже, если не учитывать текущую распространённость, не настолько, чтобы быть хоть сколько-то ощутимо большинством сайтов, да, тем более, значимо компенсировать HTTPS.

Не просто так сейчас HTTP/2 не поддерживают даже Яндекс, Amazon, Ebay.

Он действительно улучшает ситуацию с повторными хэндшейками, но

- и самый первый хэндшэйк не исчезает (а скорость загрузки на первом просмотре - наиболее значима в срезе шансов получения "отказа" от посетителя)

- и для некоторых сайтов, если не оптимизировать персонально под особенности HTTP/2 иногда даже возможны случаи небольшого замедления начала загрузки

На офблоге Nginx есть хорошая статья по теме, а вот здесь можете протестировать в сравнении результаты HTTP 1\2 для реальных сайтов.

К примеру, facebook имеет ощутимое ускорение, а miniclip.com как и большинство средних сайтов отличий с HTTP/2 фактически не имеет

aleksandrbol:
бесплатный (да и платный нужно грамотно настроить) будет отваливаться регулярно, а это ещё большие проблемы.

LetsEncrypt сам создаётся при поддержке не просто множества крупнейших компаний, а в том числе и непосредственно владельцев 80% браузерного рынка в лице Гугл-Хрома и Мозиллы.

И он на практике вообще никак не отличается от платных сертификатов. Не считая EV-разновидностей (со стоимостью порядка 12т.р.\год).

---------- Добавлено 03.07.2017 в 18:59 ----------

Иван34:
Теперь добавился еще один гемор - не забывать продлевать услуги по сертификату, а то потом будешь голову ломать, что с сайтом.

Множество хостингов сейчас выдают LE-сертификаты в пару кликов и обеспечивают их продление.

И есть немало статей о реализации на своих серверах.

Но для большинства сайтов нет прикладного смысла этим заниматься в принципе.

Единственный реальный минус от подключения HTTPS это, - скорость.

Она замедляется на время установки соединения (SSL Handshake) + ещё немного дополнительно. Если хостинг в Москве, а посетитель в Хабаровске - handshake будет занимать около 0.5сек. С европейских хостингов - цифры могут быть побольше и значимы уже по всей территории РФ\СНГ.

А с CDN можно решить, одновременно, и эти проблемы, и совсем не заниматься самостоятельно вопросами сертификатов.

1 234
Всего: 34