Gotheit

Рейтинг
56
Регистрация
20.11.2017
LEOnidUKG:
В режиме FastCGI заголовками будет управлять PHP

Если правильно понял - проблема в режиме работы сайта, да? Если поставить, например Apache - то будет работать?

LEOnidUKG:
Я так понимаю у вас php+nginx работает, без apache

Режимы работы PHP - FastCGI (Apache).

Если вы имеете ввиду FastCGI (Nginx + PHP-FPM) - то он не поддерживает .htaccess, а я выше писал что использую этот файл.

---------- Добавлено 31.05.2020 в 12:31 ----------

onep:
Модуль mod_expires включен в httpd.conf?

Нашел файл по пути /etc/httpd/conf/httpd.conf, там нет указанной вами строки :(

Как я понимаю нужно как-то включить тогда этот модуль, но как?

LEOnidUKG:
Разбирайтесь с настройками, можете вообще выключить плагин и посмотреть, что будет отображаться.

Отключал разные плагины, почти все отключил - все равно при проверке Add Expires headers = 0.

LEOnidUKG:
По сути его просто надо удалить и всё.

Кого удалить, кэш? Кэш чистил, результата нет.

LEOnidUKG:
Адрес сайта покажите.

Add Expires headers

На HTML страницы или на статику?
Если у вас там сессия включается, например, интернет магазин, то всегда будет Expires = 0 т.к. иначе пользователь не будет получать актуальную информацию от сервера по корзине и т.д.

Сайт https://mi-faq.ru, статейный.

LEOnidUKG:
А ниже сжатия, что за настройка?

Настроить кэширование - все включено. Я об этом писал выше. Но почему оно не работает, вот в чем вопрос...

LEOnidUKG:
Это всё указывается в самой панели ISP в редактировании сайта, в самом конце настройки и сжатия и кэша.

Если вы имеете ввиду настройки сжатия, то все стоит. Я говорю о другом, а именно о Expires headers.

LazyBadger:
На чисто поддоменах проиндексированных страниц 459, с учетом общего числа (510) на основном сайте проиндексировано 510-459 = 51 страница. Если эта цифра кажется слишком маленькой и основное зеркало сайта - с www, то соответственно синтаксис запроса надо слегка подправить (сейчас только что-то торможу как). Ну или если вопрос о единственном поддомене (или нескольких, а не куче), то можно inurl:subdomain.domain посмотреть

51 страница - это слишком маленькая цифра. Сам Google Search Console показывает 219 страниц без ошибок + 50 с ошибками.

Ошибки: Ошибки при сканировании отправленного URL + Доступ к отправленному URL заблокирован в файле robots.txt.

Этими ошибками уже 3 месяца мозг взрывает...

LazyBadger:
А теперь, если не хочется без извращений (просто посмотрев индексацию в гугловой Консоли, но мы же не ищем легких путей?!) то же самое, но нормальными документными операторами гугла попрошу.

Чтобы получить данные только по поддомену (поддоменам в общем случае), лучшие гугловоды советуют не калькулятор, а вот такой запрос

Теперь вообще ничего не понял что за данные показались...

site:site.ru -inurl:http://site.ru = 441

site:site.ru = 510

site:site.ru -inurl:domen.site.ru = 459

LazyBadger:
Нет, проблема именно с поддоменами (и это написано черным по белому цифрами), точнее - с тем, что региональность гугла отличается от Яндексовой, он более сурово следит в результате за дублями и банально из всех копий оставляет в индексе одну. Региональные домены "под яндекс" надо закрывать от гуглобота наглухо от корня.

Сайт не региональный, поддомен это как вопросник небольшой по моей теме. Указанные цифры по site: нашлись простой минусовкой, то есть:

1. Ввел site:poddomen.site.ru - получил данные только о поддомене.

2. Ввел site:site.ru - получил данные о всех страницах (включая поддомен 1)

3. От 2 значения отнял 1 и получил кол-во страниц только по основному домену.

Ingref:
Проверьте, что при этом в логах сервера при запросе гугл-бота к этой странице происходит.

Как это сделать для гугл бота? Нашел общие логи, но не нашел гугл-ботов. Как я понял нужно искать Googlebot или google.com/bot.html.

Всего: 62