Доступность одного и того же контента по разным урлам — это вероятность неприятностей.
Предположим, что ПС умны... и по кривому адресу обращаются к серваку, на котором вот только что изменился контент. Умная ПС добавляет страницу в индекс, завтра конечно же выяснится, что это дубль морды/index.php ... но какая страница останется в индексе?
То, что такие/?неприятности есть на почти любой СМС — говорит о неспособности/нежелании их создателей выполнить требования, встречающиеся в хелпах ПС.
А ПС не умны, это боты — программы, софт, в котором вместо ума есть жёсткие условия. Можно предположить, что одним из препятствий для индексации является наличие какого-то % того же самого, что уже есть в индексе.
Более мягкие недостатки ещё чаще встречаются, например дублирующийся блок текста. Что в этом плохого? То, что ПС не умны... а дублей в www они могут почерпнуть бесконечно, и им приходится как-то эту проблему пытаться решать, иногда с издержками (причём ПС не может разобраться с чем она боролась — с дублями или со свойством сайта).
Поэтому, если на страницах много дублирующегося по сайту, а объём контента на странице не велик, а сайт молодой... ждите проблем с индексацией. Создатели движков этой проблемы не видят, её приходится разруливать отдельно в каждом конкретном случае (а о том, что могут предложить программеры, даже и подумать страшно).
Пользователь CMS должен быть вебмастером + оптимизатором + программером (которые и выиграли материально... от всех этих попыток “облегчения” создания сайта).
Проблемы с дублями начинаются ещё от серваков...
http://www.yandex.ru/all
http://www.yandex.ru/all/
http://www.google.com/intl/ru/instant/index.html
И нормальному вебмастеру настроить всё правильно — трудно/долго/(а зачем это всё?)
А у сеошников файлы в папках http://www.bdbd.ru/seo/newseo/index.html
Никаких СМС, всё только на статике...
Странные рекомендации, частично обусловленные серваками:
Последний пункт на клиенте выполняется не так и сложно. Но из-за серваков вот какие странности бывают:
Движки предназначались для облегчения... но так получается, что с ними выполнить простецкие условия — оказывается дольше и дороже, если вообще возможно. А головы программеров на это ещё и не заточены.
А поисковикам и <article> не нужен, и <nav>
Это писатели.W3C выдумали.
Настроить-то 404 можно
GET http://modx.com/index.html 404 Not Found
но как-то не на все возможные случаи:
GET http://modx.com/index.php 200 OK
GET http://modx.com/?shit 200 OK
GET http://drupal.org/?%D0%B4%D1%83%D0%B1%D0%BB%D0%B8 200 OK
Здравствуй мир. Какое SEO?
Создатели движков просто не думают о том, как убрать возможность самых тупых неприятностей.
Есть более тонкие случаи... их можно лечить. А пока нет удобных движков, сайты сеошников будут без движков.
Даже поисковик не может себе сделать сайтег
и на большинстве сайтов есть типичные неудобства для ПС, начинающиеся даже с серверов, а не CMS.
Итог не радостный для пользователей движков: надо платить ещё и программерам — которые за это очень любят популярных монстров.
Как будто бы писатели движков не чувствуют пустующей ниши с названием CMS удобная для поисковиков ... и возможности браузеров часто просто не используются, а можно было бы разруливать типовые проблемы (чаще только создаваемые серверной частью).
А это не является структурой сайта (если вы всё очень правильно знаете... и хотите точно указать всё, что перечислили выше, то вам к верстальщику проще, а не к дизайнеру).
Структура сайта, это скорее:
Делать то, что нужно — это не всё.
Как избавиться от всего того, что не нужно — на CMC это сложнее...
У некоторых организаций могут быть мелкие, но вкусные для журналистов неприятности... да, сразу получилась новостюга про хакеров и взлом...
Вам могут практически создавать новости ... буквально сочинив ссылки типа
whitehouse.gov/briefing-room?Free-Julian-Assange!
http://www.whitehouse.gov/?Drupal®must☻die
Если посмотреть на ответы сайтов самих CMS, то там про SEO особо не заморачивались.
Если же сайт начинающий, то возможность всех этих дублей — не хорошо, особенно если контент ограниченной уникальности (магазин), много дублирующегося — меню и пр. — а тут создатели СМС не смотрят в возможности клиента, предпочитая магические фразы типа AJAX и ЧПУ.
Вот и получается, что редактора мало, нужен ещё вебмастер — он же оптимизатор и программер.
В ссылках есть.
Просто далеко не всегда показывается пометка Найден по ссылке:
её даже можно скрывать упоминанием запроса в описании (хотя оно само не ищется), демка... это получается на стадии формирования сниппета, а не ранжирования.
GET http://www.whitehouse.gov/?%D0%B3%D0%B0%D0%B2%D0%BD%D0%BE
200 OK
В роботсе такое не очень-то закрывается, там вам не Яндекс.
Ещё продажники любят фразы типа: Мы писали это глюкло в тесном сотрудничестве с компанией Ошманофф и Прочие. И сеошников это убеждает...
Не так...
А сможете как-то сообщить поисковикам, что эти ваши старания называются семантикой?.. и всё, что вы под этим словом подразумеваете. Или вы думает, создатели ПС дизайнерские говноблоги читают?
Следующий ваш вопрос будет про HTML5... хотя про него уже наотвечали, но верующих не убавилось.