vitaliy11

Рейтинг
174
Регистрация
14.03.2007
Иван Комаров #:
но  я создал SSL от Lets Encyprt , указав www.xxx.xxx.ru и xxx.xxx.ru

Так а причем здесь это, если Вы проксируете этот сбудомен? Это КФ обращается к хостингу по этому ссл.

Иван Комаров #:
да, открывается

Ограничение по глубине для бесплатного ссл КФ.

Иван Комаров #:
я бы хотел эту ссылочную массу сохранить

Ну а редирект 301?

leoseo #:
А вот курс гривны резко пошёл обесцениваться. Ждём доллар  по 200 гривен  ?

Экономика не работает. Догадайтесь почему.

Зависит от поступления помощи извне. Сейчас наверное было меньше платежей. Но там же кажется есть из чего выделять (заначку в 300 оставили)

Иван Комаров #:

да. в настройках dns для домена указаны поддомены

www.XXX

и

XXX

почему то по http субдомен www.xxx.xxx.ru срабатывает, а по https субдомен www.xxx.xxx.ru в браузерах выдает ошибку 

Тогда наверное по глубине ссл не действует. Без www субдомен по https открывается?

Ну так он и может по http отрываться. Обычно всегда при использовании https сразу ставится переадресация http -> https чтобы только по этому протоколу открывался.

А зачем Вам www?

Иван Комаров #:

дополню

если открывать в браузере http://www.xx.xxx.ru

то редирект срабатывает

а если по безопасному протоколу вызывать

https://  www.xx.xxx.ru

выдает ошибку в эдже, хроме, опере... и яндекс.вебмастер тоже если тестировать ответ сервера говорит что по  https://  www.xx.xxx.ru 

получить страницу не может

Субдомен проксируется через КФ?

В бесплатном ССЛ КФ кажется есть ограничения по глубине https://xx.xxx.com

BrickLayer #:
Favicon нагружает сервер... Анекдот.
И это обсуждают на серьезных щах.

А если одномоментно будет много запросов к апаче, то что в этом случае будет?

Brat_Sergij #:
Ерунда. На десктопе раньше всегда я мог для 90% сайтов посмотреть кэшированную версию страницы, сейчас - нет ни для одного. Кэшированная версия просто отсутствует и сама страница подробностей у меня выглядит как иначе.

Для нескольких сайтов нажал - везде нормально показывается (при раскрытии по стрелочке есть Сохраненная копия).

Hernan Cortes #:
Начиная с середины сентября Гугл начал индексировать страницы запрещенные к индексации через robots.txt и плагин под мою CMS (SEO Meta Robots). В индекс улетели страницы /compare/, /review/, ?locale, ?page, ? sort и так далее. Короче всякий мусор, про который ПС знать не нужно.  Не следил за новостими Гугла, поэтому не вкурсе, что это такое, зачем это?

Только в роботс прописано или есть noindex на этих страницах? Более надежно использовать метатэг noindex или header  noindex на конкретных страницах.

Aisamiery #:
nginx + php-fpm будет самая оптимальная

Спасибо. Буду разбираться.

Aisamiery #:

Скорее всего речь про opcache, но это модуль php, а не конкретно php-fpm поэтому это работает везде

Использую opcache. Да, визуально немного заметно разницу с включенным и отключенным.

Если буду использовать ВПС, то какую связку лучше выбрать?

В ВПС меня больше беспокоит мониторинг сервера.

Всего: 647