DiAksID

DiAksID
Рейтинг
236
Регистрация
02.08.2008
SeVlad:
Видимо не у меня одного. Раз я пруфлинка не вижу.

если ты не догоняешь, значит и все 😂 сильно задвинул, как всегда.

это вполне валидный пруф о реальной реакции яшки на реальный каноникал реального сайта, а не песни в мануале.

на скрине список "исключённых страниц" с заголовком "страницы запрещены к индексации или не существуют" в нем три пункта, один из них "неканонические". судя по заголовку "неканонические" это либо "не существуют" либо "запрещены к индексации". дальше сам справишся ?

SweeT_BladE:
... Но тогда вопрос, отразится ли это как-то на поисковиках?...

сам спросил сам ответил:

SweeT_BladE:
... По идее это уже будет считаться как новая страница же? ...

тольок не "по идее", а просто - другие страницы на других урлах.

SeVlad:
Т.е. фантазии? Ок.

получает статус! Как иначе понять если не "не индексируется"?

например, "не индексируется, пока доступен и валиден канонический урл" ;) подходит? просто стоит опираться на терминологии ПС (в данном случае яшки), написано у него "страница запрещена к индексации вебмастером" - нехай так и будет, а утверждать, что знаешь как и он что там на самом деле делает - только понты гнать...

SeVlad:
Т.е. фантазии? Ок.

и со зрением напряг? ок, повторюсь:

SeVlad:
... Пруф будет? ...

из скриншота не видно ? или "Документ не является каноническим" относится к статусу "документ не существует" ? моё имхо: статус "Страница запрещена к индексированию вебмастером".

и ещё раз о формулировках: я сказал "получает статус запрещено к индексированию", а не "не индексируется", так же как и с метатегом (кроме условий доступности канонической ссылки и пр.). разница очевидна, хотя умничать можно, не жалко...

canonical это вообще то крайнее средство - когда CMS не даёт скрыть дубли от ботов никак иначе.

но до него есть одно хорошее, хотя и кардинальное, средство - послать подальше такую CMS...

SeVlad:
к индексации??? Откуда дровишки?

из яшкиного вебмастера, например, никогда там не был 😂 ?

burunduk:
DiAksID, только вот проблема - нормальные страницы у робота может квоты не хватить ;)

так о том и речь, если хочешь беречь квоту - отдавай 404 и нафиг каноникал не нужен вообще (ибо и использоваться не будет), но если приходится используется каноникал (из-за ограничений CMS) то претензии к 200 некорректны всё по понятиям...

png 2.png
Timen:
... он будет действителен только для новых пользователей (браузеров), которые еще не закешировали страницу согласно старых правил...

с какого перепугу, когда в хеадерах будут новые данные? если броузер получит в заголовке expires no-cache ему плевать кэшировал он или нет до этого - просто не полезет в кэш, получит 1 минуту - обновит кэш старше одной минуты. надо что бы nginx гарантированно отдавал нужный заголовок у нужного типа файлов и всё..

SweeT_BladE:
Вопрос все еще не решен...
Может кто-нибудь подскажет?

установите нужный expires в новом location (для нужных страниц) уже в самом конфиге сайта и все дела. по хорошему для разных типов файлов expires должен быть разный (иногда и на разных сайтах - разный). но можно в каждый конфиг приинклудить что то одинаковое, вроде этого:


location ~* \.(?:manifest|appcache|html|xml|json)$ {
expires -1;
access_log off;
}



location ~* \.(?:rss|atom)$ {
expires 1h;
add_header Cache-Control private;
}



location ~* \.ico$ {
access_log off;
expires 1w;
add_header Cache-Control private;
}



location ~* \.(?:jpg|jpeg|gif|png|ico|gz|svg|svgz|ttf|otf|woff|eot|mp4|ogg|ogv|webm)$ {
access_log off;
expires 1M;
add_header Cache-Control private;
}



location ~* \.(?:css|xsl|js|zip|gz|bz2?|rar)$ {
access_log off;
expires 1y;
add_header Cache-Control private;
}
богоносец:
А генерировать ответ, отличный от 200 — проблема?

страницы с canonical получают статус "запрещено к индексации" после того как бот сожрёт тег link c rel=canonical и сравнит урлы, для чего он перед этим в хеадере должен получить 200, так что всё путём.

ведь к страницам, зарещённым к индексации в robots или метатегом таких претензий нет? (да и не может быть) ;)...

kredos:
... 🙅 Харе оффтопить! Мне тоже интересно на что лучше сменить Битрикс исходя из выше представленных задач...

все сабжи касаются именно поставленной задачи, нет желания глубже разобраться в проблеме и резонах - не читай.

ЗЫ: задолбали "народные модераторы" 😂

богоносец:
Проблема в том, что ТС хочет CMS, заточенную под SEO. Вот этого пустячка и не хватает.

а так как требования "заточки" меняются как ветер на море (кроме давно ни на что не влияющих "аксиом"), остаётся только одно - CMS должна уметь "маневрировать" т. е. давать полную свободу в исходном коде, урлах, хедерах и остальной запросной лабуде, всего лишь.

так что остаётся MODx, монстро-Durpal ну и фреймворки, если хватит гонору...

Всего: 2557