Вот нужно искателю site:ya.ru/login.xml ?
А если он при этом содержит дыры?.. возможность тех же дублей. Это лучше сайта на популярном двиге, в котором героическими усилиями многие дыры удалось заткнуть?
Ну давайте пример из родного отечества.
И охота вам гавно этих пиарщиков читать
А ещё хочется гарантий вечного и положительного влияния на ранжирование во всех поисковых системах — включая будущие.
А что, если вдруг выяснится, что надо было вкладываться в качество поиска, а не в бесполезные попытки?
ps И занимаются (в вашей стране) они не тем, что декларируют. И их явно раздражает конкретное напоминание, что именно отсталость технологии поиска является причиной всего ГСтроя и всяких нежелательных явлений. Им хотелось бы массового мнения, похожего на высказанное например вами... хотя оно не сможет избавить от давно торчащих проблем.
Доступность одного и того же контента по разным урлам — это вероятность неприятностей.
Предположим, что ПС умны... и по кривому адресу обращаются к серваку, на котором вот только что изменился контент. Умная ПС добавляет страницу в индекс, завтра конечно же выяснится, что это дубль морды/index.php ... но какая страница останется в индексе?
То, что такие/?неприятности есть на почти любой СМС — говорит о неспособности/нежелании их создателей выполнить требования, встречающиеся в хелпах ПС.
А ПС не умны, это боты — программы, софт, в котором вместо ума есть жёсткие условия. Можно предположить, что одним из препятствий для индексации является наличие какого-то % того же самого, что уже есть в индексе.
Более мягкие недостатки ещё чаще встречаются, например дублирующийся блок текста. Что в этом плохого? То, что ПС не умны... а дублей в www они могут почерпнуть бесконечно, и им приходится как-то эту проблему пытаться решать, иногда с издержками (причём ПС не может разобраться с чем она боролась — с дублями или со свойством сайта).
Поэтому, если на страницах много дублирующегося по сайту, а объём контента на странице не велик, а сайт молодой... ждите проблем с индексацией. Создатели движков этой проблемы не видят, её приходится разруливать отдельно в каждом конкретном случае (а о том, что могут предложить программеры, даже и подумать страшно).
Пользователь CMS должен быть вебмастером + оптимизатором + программером (которые и выиграли материально... от всех этих попыток “облегчения” создания сайта).
Проблемы с дублями начинаются ещё от серваков...
http://www.yandex.ru/all
http://www.yandex.ru/all/
http://www.google.com/intl/ru/instant/index.html
И нормальному вебмастеру настроить всё правильно — трудно/долго/(а зачем это всё?)
А у сеошников файлы в папках http://www.bdbd.ru/seo/newseo/index.html
Никаких СМС, всё только на статике...
Странные рекомендации, частично обусловленные серваками:
Последний пункт на клиенте выполняется не так и сложно. Но из-за серваков вот какие странности бывают:
Движки предназначались для облегчения... но так получается, что с ними выполнить простецкие условия — оказывается дольше и дороже, если вообще возможно. А головы программеров на это ещё и не заточены.
А поисковикам и <article> не нужен, и <nav>
Это писатели.W3C выдумали.
Настроить-то 404 можно
GET http://modx.com/index.html 404 Not Found
но как-то не на все возможные случаи:
GET http://modx.com/index.php 200 OK
GET http://modx.com/?shit 200 OK
GET http://drupal.org/?%D0%B4%D1%83%D0%B1%D0%BB%D0%B8 200 OK
Здравствуй мир. Какое SEO?
Создатели движков просто не думают о том, как убрать возможность самых тупых неприятностей.
Есть более тонкие случаи... их можно лечить. А пока нет удобных движков, сайты сеошников будут без движков.
Даже поисковик не может себе сделать сайтег
и на большинстве сайтов есть типичные неудобства для ПС, начинающиеся даже с серверов, а не CMS.
Итог не радостный для пользователей движков: надо платить ещё и программерам — которые за это очень любят популярных монстров.
Как будто бы писатели движков не чувствуют пустующей ниши с названием CMS удобная для поисковиков ... и возможности браузеров часто просто не используются, а можно было бы разруливать типовые проблемы (чаще только создаваемые серверной частью).
А это не является структурой сайта (если вы всё очень правильно знаете... и хотите точно указать всё, что перечислили выше, то вам к верстальщику проще, а не к дизайнеру).
Структура сайта, это скорее:
Делать то, что нужно — это не всё.
Как избавиться от всего того, что не нужно — на CMC это сложнее...
У некоторых организаций могут быть мелкие, но вкусные для журналистов неприятности... да, сразу получилась новостюга про хакеров и взлом...
Вам могут практически создавать новости ... буквально сочинив ссылки типа
whitehouse.gov/briefing-room?Free-Julian-Assange!
http://www.whitehouse.gov/?Drupal®must☻die
Если посмотреть на ответы сайтов самих CMS, то там про SEO особо не заморачивались.
Если же сайт начинающий, то возможность всех этих дублей — не хорошо, особенно если контент ограниченной уникальности (магазин), много дублирующегося — меню и пр. — а тут создатели СМС не смотрят в возможности клиента, предпочитая магические фразы типа AJAX и ЧПУ.
Вот и получается, что редактора мало, нужен ещё вебмастер — он же оптимизатор и программер.