Если правильно понял - проблема в режиме работы сайта, да? Если поставить, например Apache - то будет работать?
Режимы работы PHP - FastCGI (Apache).
Если вы имеете ввиду FastCGI (Nginx + PHP-FPM) - то он не поддерживает .htaccess, а я выше писал что использую этот файл.---------- Добавлено 31.05.2020 в 12:31 ----------
Нашел файл по пути /etc/httpd/conf/httpd.conf, там нет указанной вами строки :(
Как я понимаю нужно как-то включить тогда этот модуль, но как?
Отключал разные плагины, почти все отключил - все равно при проверке Add Expires headers = 0.
Кого удалить, кэш? Кэш чистил, результата нет.
Сайт https://mi-faq.ru, статейный.
Настроить кэширование - все включено. Я об этом писал выше. Но почему оно не работает, вот в чем вопрос...
Если вы имеете ввиду настройки сжатия, то все стоит. Я говорю о другом, а именно о Expires headers.
51 страница - это слишком маленькая цифра. Сам Google Search Console показывает 219 страниц без ошибок + 50 с ошибками.
Ошибки: Ошибки при сканировании отправленного URL + Доступ к отправленному URL заблокирован в файле robots.txt.
Этими ошибками уже 3 месяца мозг взрывает...
Теперь вообще ничего не понял что за данные показались...
site:site.ru -inurl:http://site.ru = 441
site:site.ru = 510
site:site.ru -inurl:domen.site.ru = 459
Сайт не региональный, поддомен это как вопросник небольшой по моей теме. Указанные цифры по site: нашлись простой минусовкой, то есть:
1. Ввел site:poddomen.site.ru - получил данные только о поддомене.
2. Ввел site:site.ru - получил данные о всех страницах (включая поддомен 1)
3. От 2 значения отнял 1 и получил кол-во страниц только по основному домену.
Как это сделать для гугл бота? Нашел общие логи, но не нашел гугл-ботов. Как я понял нужно искать Googlebot или google.com/bot.html.