vitaliy11

Рейтинг
176
Регистрация
14.03.2007
impossible #:
Далее в правиле блокировки по User Agent добавляем  AhrefsBot для блокировки.

Если количество правил позволяет, то можно это поставить первым правилом и тогда не нужно будет 2 раза прописывать.

Иван Комаров #:
и я не могу для вызова сайта ТАК сделать редирект 301 с использованием htaccess ...

На КФ правилами же можно многое прописать, в том числе редирект

Иван Комаров #:
но  я создал SSL от Lets Encyprt , указав www.xxx.xxx.ru и xxx.xxx.ru

Так а причем здесь это, если Вы проксируете этот сбудомен? Это КФ обращается к хостингу по этому ссл.

Иван Комаров #:
да, открывается

Ограничение по глубине для бесплатного ссл КФ.

Иван Комаров #:
я бы хотел эту ссылочную массу сохранить

Ну а редирект 301?

leoseo #:
А вот курс гривны резко пошёл обесцениваться. Ждём доллар  по 200 гривен  ?

Экономика не работает. Догадайтесь почему.

Зависит от поступления помощи извне. Сейчас наверное было меньше платежей. Но там же кажется есть из чего выделять (заначку в 300 оставили)

Иван Комаров #:

да. в настройках dns для домена указаны поддомены

www.XXX

и

XXX

почему то по http субдомен www.xxx.xxx.ru срабатывает, а по https субдомен www.xxx.xxx.ru в браузерах выдает ошибку 

Тогда наверное по глубине ссл не действует. Без www субдомен по https открывается?

Ну так он и может по http отрываться. Обычно всегда при использовании https сразу ставится переадресация http -> https чтобы только по этому протоколу открывался.

А зачем Вам www?

Иван Комаров #:

дополню

если открывать в браузере http://www.xx.xxx.ru

то редирект срабатывает

а если по безопасному протоколу вызывать

https://  www.xx.xxx.ru

выдает ошибку в эдже, хроме, опере... и яндекс.вебмастер тоже если тестировать ответ сервера говорит что по  https://  www.xx.xxx.ru 

получить страницу не может

Субдомен проксируется через КФ?

В бесплатном ССЛ КФ кажется есть ограничения по глубине https://xx.xxx.com

BrickLayer #:
Favicon нагружает сервер... Анекдот.
И это обсуждают на серьезных щах.

А если одномоментно будет много запросов к апаче, то что в этом случае будет?

Brat_Sergij #:
Ерунда. На десктопе раньше всегда я мог для 90% сайтов посмотреть кэшированную версию страницы, сейчас - нет ни для одного. Кэшированная версия просто отсутствует и сама страница подробностей у меня выглядит как иначе.

Для нескольких сайтов нажал - везде нормально показывается (при раскрытии по стрелочке есть Сохраненная копия).

Hernan Cortes #:
Начиная с середины сентября Гугл начал индексировать страницы запрещенные к индексации через robots.txt и плагин под мою CMS (SEO Meta Robots). В индекс улетели страницы /compare/, /review/, ?locale, ?page, ? sort и так далее. Короче всякий мусор, про который ПС знать не нужно.  Не следил за новостими Гугла, поэтому не вкурсе, что это такое, зачем это?

Только в роботс прописано или есть noindex на этих страницах? Более надежно использовать метатэг noindex или header  noindex на конкретных страницах.

Всего: 669