Ругать нерадивых каперайторов я и сам могу.
А как же поисковики определяют интересность страницы для людей, набравших данный запрос?
( ну мне, как и многим другим, это надо чисто для продвижения страниц интересных для людей, честно )
Ну а как, ещё до появления поведенческих (на это может уходить время) ранжирующая система определит, по какому запросу случайно подкинуть сайт?
При каком объёме текста стата ошибочных подкидываний меньше?
Вы в это верите как и выдуманный фактор последнего клика?
Или тупым лозунгам легче уложиться в голове?
Исследователи повадок ползателей были трезвее нормальных верующих.
А как дремучие поисковики об полноте ответа узнают? Вопрос-то о них.
Это может оказаться не оправдано из-за тормознутости Яндекса.
Т.е. т.н. вложенность урла определяется количеством слешей?
Т.е. на этом форуме её нет?
Ассоциация значит. А в действительности что?
Когда-то давно (а как оно сейчас, мало кому интересно) говорили про Поисковые кластеры / фильтры Яндекса, но это не количество слешей (как бы папок). И тогда это не было названо едиственным признаком... хотя признаки наверное аналогично просты.
Это не ломки, а мелкие оплошности сеошников.
ps Как-то поискав по форуму, удивился, что найти про технические требования почти ничего не получается (кроме «у нас всё есть»)
/ru/forum/comment/1703163
/ru/forum/comment/854431
Вот только нету CMS, которая позволяет ускорить реализацию любых фантазий сеошника, вот им и приходится делать руками. А программер согласен облегчить выполнение некой типичной задачи, например создание страницы (при этом не учитывая какие-то требования к сайту в целом).
pps Ещё во времена относительной живости SEO сдвинуть ситуацию не удалось. И она застряла на фундаментальном:
А они настолько скучны и часто повторяемы, что я их всех уже и не помню, перечитайте сами где-нибудь (ну вот полузабытые нюансы в подвале www.unmedia.ru/js-seo.html причём вы можете это делать и другими срествами клиента).
Но основной проблемой является невосприимчивость умных голов к примитивно-сетевому бытию ботов (придуманных в прошлом веке, которым приходится тратить кучу ресурсов и создавать бестолковый траф из-за того, что вебмастерам удобнее думать, что ПС умны).
Ну та же доступность одинакового контента по разным урлам.
Если ваша суперпродаваемая CMS создаёт эту дыру на сайте, то в худшем случае ботам придётся тратить лимиты на обращение к сайту — на отсев дублей — вместо его индексации.
Ну вот к примеру типичные отмазки программеров:
Суть именно в доступности (200 OK) левых адресов.
Не забывайте, что сайты — часто объект пиара/войны/шуток. То же само и в урлах можно нарисовать.
Спросить вас: А у меня уникального текста на страницах по 1-5 слов, а у вас в меню 100 и все индексятся, такой сайт проиндексится? Ну не хотят об этом думать создатели.
А вот как сами яндексоиды юзают <!--noindex--> см в коде yandex.ru/support/webmaster/for-webmasters/contents.xml например. Но подобное можно сделать и для гугла.
Зачем покупать то, чего покупать вредно?
Даже бесплатно такое вредно:
www.diafan.ru/news 200 OK
www.diafan.ru/news/ 200 OK
причём вредно не только пользователю CMS, но и ПС, и сети.
Наверное цех программеров так обеспечивает себе занятость. Сначала посоветовать кому-то купить неправильный полуфабрикат, а потом предложить услуги по его допиливанию пожизненно. Что вас ждёт после конца света?
Наверное потому же, почему приходится приводить фотографии самого метода — чего-то эзотерического как бы. Для барашков наверное надо.
Яндекс === циники, а вы не хотите платить святому Директу.