если ты не догоняешь, значит и все 😂 сильно задвинул, как всегда.
это вполне валидный пруф о реальной реакции яшки на реальный каноникал реального сайта, а не песни в мануале.
на скрине список "исключённых страниц" с заголовком "страницы запрещены к индексации или не существуют" в нем три пункта, один из них "неканонические". судя по заголовку "неканонические" это либо "не существуют" либо "запрещены к индексации". дальше сам справишся ?
сам спросил сам ответил:
тольок не "по идее", а просто - другие страницы на других урлах.
например, "не индексируется, пока доступен и валиден канонический урл" ;) подходит? просто стоит опираться на терминологии ПС (в данном случае яшки), написано у него "страница запрещена к индексации вебмастером" - нехай так и будет, а утверждать, что знаешь как и он что там на самом деле делает - только понты гнать...
и со зрением напряг? ок, повторюсь:
из скриншота не видно ? или "Документ не является каноническим" относится к статусу "документ не существует" ? моё имхо: статус "Страница запрещена к индексированию вебмастером".
и ещё раз о формулировках: я сказал "получает статус запрещено к индексированию", а не "не индексируется", так же как и с метатегом (кроме условий доступности канонической ссылки и пр.). разница очевидна, хотя умничать можно, не жалко...
canonical это вообще то крайнее средство - когда CMS не даёт скрыть дубли от ботов никак иначе.
но до него есть одно хорошее, хотя и кардинальное, средство - послать подальше такую CMS...
из яшкиного вебмастера, например, никогда там не был 😂 ?
так о том и речь, если хочешь беречь квоту - отдавай 404 и нафиг каноникал не нужен вообще (ибо и использоваться не будет), но если приходится используется каноникал (из-за ограничений CMS) то претензии к 200 некорректны всё по понятиям...
с какого перепугу, когда в хеадерах будут новые данные? если броузер получит в заголовке expires no-cache ему плевать кэшировал он или нет до этого - просто не полезет в кэш, получит 1 минуту - обновит кэш старше одной минуты. надо что бы nginx гарантированно отдавал нужный заголовок у нужного типа файлов и всё..
установите нужный expires в новом location (для нужных страниц) уже в самом конфиге сайта и все дела. по хорошему для разных типов файлов expires должен быть разный (иногда и на разных сайтах - разный). но можно в каждый конфиг приинклудить что то одинаковое, вроде этого:
location ~* \.(?:manifest|appcache|html|xml|json)$ { expires -1; access_log off;}location ~* \.(?:rss|atom)$ { expires 1h; add_header Cache-Control private;}location ~* \.ico$ { access_log off; expires 1w; add_header Cache-Control private;}location ~* \.(?:jpg|jpeg|gif|png|ico|gz|svg|svgz|ttf|otf|woff|eot|mp4|ogg|ogv|webm)$ { access_log off; expires 1M; add_header Cache-Control private;}location ~* \.(?:css|xsl|js|zip|gz|bz2?|rar)$ { access_log off; expires 1y; add_header Cache-Control private;}
страницы с canonical получают статус "запрещено к индексации" после того как бот сожрёт тег link c rel=canonical и сравнит урлы, для чего он перед этим в хеадере должен получить 200, так что всё путём.
ведь к страницам, зарещённым к индексации в robots или метатегом таких претензий нет? (да и не может быть) ;)...
все сабжи касаются именно поставленной задачи, нет желания глубже разобраться в проблеме и резонах - не читай.
ЗЫ: задолбали "народные модераторы" 😂
а так как требования "заточки" меняются как ветер на море (кроме давно ни на что не влияющих "аксиом"), остаётся только одно - CMS должна уметь "маневрировать" т. е. давать полную свободу в исходном коде, урлах, хедерах и остальной запросной лабуде, всего лишь.
так что остаётся MODx, монстро-Durpal ну и фреймворки, если хватит гонору...